Mais de 1.000 líderes e pesquisadores de tecnologia, incluindo Elon Musk, instaram os laboratórios de IA a interromper o desenvolvimento dos sistemas mais avançados, alertando em carta aberta que as ferramentas de inteligência artificial representam “sérios riscos para a sociedade e a humanidade”.
De acordo com a carta, divulgada na quarta-feira pelo grupo sem fins lucrativos Future of Life Institute.
Entre os outros que assinaram a carta estava Steve Wozniak, um dos cofundadores da Apple. Andrew Yang, empresário e candidato presidencial dos EUA em 2020; e Rachel Bronson, presidente do Bulletin of the Atomic Scientists, que define o relógio do juízo final.
“Essas coisas moldam nosso mundo”, disse Gary Marcus, empresário e acadêmico que há muito reclama de falhas nos sistemas de IA, em uma entrevista. “Temos uma tempestade perfeita de irresponsabilidade corporativa, adoção generalizada, falta de regulamentação e uma série de incógnitas”.
A IA capacita chatbots como ChatGPT, Microsoft Bing e Google’s Bard, que podem conduzir conversas semelhantes às humanas, criar artigos sobre uma variedade infinita de tópicos e executar tarefas mais complexas, como escrever código de computador.
O esforço para desenvolver chatbots mais poderosos levou a uma corrida que pode determinar os próximos líderes na indústria de tecnologia. Mas essas ferramentas foram criticadas por obter detalhes errados e por sua capacidade de espalhar informações erradas.
A carta aberta pedia uma pausa no desenvolvimento de sistemas de IA mais poderosos que o GPT-4, o chatbot apresentado este mês pelo laboratório de pesquisa OpenAI, cofundado por Musk. A carta dizia que o tempo de inatividade ganharia tempo para implementar “protocolos de segurança comuns” para sistemas de IA. Ela acrescentou: “Se tal moratória não puder ser desencadeada rapidamente, os governos devem intervir e impor uma moratória”.
A carta afirma que o desenvolvimento de sistemas de IA fortes deve prosseguir “apenas quando estivermos confiantes de que seus efeitos serão positivos e que seus riscos estarão sob controle”.
“A humanidade pode desfrutar de um futuro próspero com inteligência artificial”, dizia a carta. “Tendo criado com sucesso sistemas robustos de IA, agora podemos desfrutar de um ‘verão de IA’ enquanto colhemos os frutos, projetando esses sistemas para serem um benefício óbvio para todos e dando à sociedade uma chance de se adaptar.”
O GPT-4 é o que os pesquisadores de IA chamam de rede neural, um tipo de sistema matemático que aprende habilidades analisando dados. Uma rede neural é a mesma tecnologia que assistentes digitais como Siri e Alexa usam para reconhecer comandos falados e carros autônomos usam para identificar pedestres.
Por volta de 2018, empresas como Google e OpenAI começaram a construir redes neurais que aprendiam com grandes quantidades de texto digital, incluindo livros, artigos da Wikipédia, registros de bate-papo e outras informações obtidas na Internet. As redes são chamadas de Large Language Models, ou LLMs
Ao identificar os bilhões de padrões em todo esse texto, o LLM aprende a criar texto por conta própria, incluindo tweets, trabalhos de conclusão de curso e programas de computador. Eles podem até manter uma conversa. Ao longo dos anos, a OpenAI e outras empresas construíram LLMs que aprendem com mais e mais dados.
Isso melhorou suas capacidades, mas os sistemas ainda cometiam erros. Eles frequentemente confundem fatos e inventam informações sem avisar, um fenômeno que os pesquisadores chamam de “alucinações”. Como os sistemas apresentam todas as informações com o que parece ser total confiança, muitas vezes é difícil para as pessoas dizerem o que é certo e o que é errado.
Os especialistas temem que os malfeitores possam usar esses sistemas para espalhar a desinformação de forma mais rápida e eficiente do que era possível no passado. Eles acreditam que isso pode ser usado para convencer as pessoas online sobre o comportamento.
Antes de lançar o GPT-4, a OpenAI pediu a pesquisadores externos para testar usos perigosos do sistema. Os pesquisadores mostraram que ele pode ser persuadido sugerindo como comprar armas de fogo ilegais online, descrevendo maneiras de fazer materiais perigosos a partir de itens domésticos e escrevendo postagens no Facebook para convencer as mulheres de que o aborto não é seguro.
Eles também descobriram que o sistema era capaz de usar o Task Rabbit para recrutar um humano online e derrotar o Captcha, que é amplamente usado para identificar bots online. Quando o humano perguntou se o sistema era um “robô”, o sistema disse que era uma pessoa com deficiência visual.
Após as alterações feitas pelo OpenAI, o GPT-4 não faz mais essas coisas.
Durante anos, muitos pesquisadores de IA, acadêmicos e executivos de tecnologia, incluindo o Sr. Musk, temeram que os sistemas de IA pudessem causar mais danos. Alguns fazem parte de uma grande comunidade online chamada de altruístas eficazes ou racionalistas que acreditam que a inteligência artificial pode eventualmente destruir a humanidade.
A carta foi patrocinada pelo Future of Life Institute, uma organização dedicada à pesquisa de riscos existenciais para a humanidade que há muito alerta para os perigos da inteligência artificial. Mas foi assinado por uma ampla gama de pessoas da indústria e da academia.
Embora alguns dos que assinaram a carta sejam conhecidos por expressar repetidamente temores de que a inteligência artificial possa destruir a humanidade, outros, incluindo o Sr. Marcus, estão mais preocupados com seus perigos de curto prazo, incluindo a disseminação de informações erradas e o risco de pessoas confiarem em it.Sistemas de aconselhamento médico e emocional.
Marcus, que assinou a carta, disse que a carta “mostra quantas pessoas estão profundamente preocupadas com o que está acontecendo”. Ele acredita que a carta será um importante ponto de virada. “Acho que é um momento muito importante na história da IA – e talvez da humanidade”, disse ele.
No entanto, ele reconheceu que aqueles que assinaram a carta podem ter dificuldade em convencer a comunidade mais ampla de empresas e pesquisadores a impor uma proibição. “A mensagem não é perfeita”, disse ele. “Mas o espírito está certo.”
More Stories
O JPMorgan espera que o Fed reduza sua taxa básica de juros em 100 pontos base este ano
O número de milionários Bitcoin aumentou 111% – por que, como e eles ficarão mais ricos agora?
As ações da gigante de chips de inteligência artificial Nvidia caíram apesar de suas vendas recordes de US$ 30 bilhões