Dezembro 28, 2024

Revista PORT.COM

Informações sobre Portugal. Selecione os assuntos que você deseja saber mais sobre no Revistaport

“60 Minutos” fez uma afirmação bastante desagradável sobre um chatbot do Google AI

“60 Minutos” fez uma afirmação bastante desagradável sobre um chatbot do Google AI

Desde que a OpenAI lançou o ChatGPT no mundo, vimos pessoas que você não acreditaria. Algumas pessoas afirmam que os chatbots têm uma agenda desperta. O senador americano Chris Murphy twittou que o ChatGPT “ensinou” a si mesmo química avançada. Até mesmo jornalistas de tecnologia experientes escreveram histórias sobre como funciona O chatbot se apaixonou por eles. Parece que o mundo está reagindo à IA da mesma forma que os homens das cavernas provavelmente reagiram quando viram fogo pela primeira vez: com total confusão e balbucio incoerente.

Um dos exemplos mais recentes vem de 60 minutos, que jogou sua voz no ringue com um novo episódio focado em inovações em inteligência artificial que foi ao ar na CBS no domingo. O episódio apresentou entrevistas com nomes como Sundar Pichai, CEO do Google, e incluiu conteúdo questionável Declarações sobre um dos modelos de linguagem grande (LLM) da empresa.

O segmento é sobre comportamento emergente, que descreve um efeito colateral inesperado de um sistema de IA que não foi necessariamente pretendido pelos desenvolvedores do modelo. Já vimos um comportamento emergente surgir em outros projetos recentes de IA. Por exemplo, pesquisadores recentemente usaram o ChatGPT para criar personas digitais com objetivos e histórico em um estudo publicado online na semana passada. Eles observam que o sistema executa vários comportamentos emergentes, como compartilhar novas informações de um personagem para outro e até formar relacionamentos entre si – algo que os autores não planejaram inicialmente para o sistema.

Comportamento emergente é certamente um tópico que vale a pena discutir em um programa de notícias. onde está 60 minutos O vídeo dá uma guinada, no entanto, quando aprendemos sobre as alegações de que o chatbot do Google foi capaz de aprender sozinho um idioma que não conhecia antes, depois de ser questionado nesse idioma. “Por exemplo, um programa de IA do Google adaptou-se por conta própria depois de ser instruído a fazê-lo no idioma de Bangladesh, que não foi treinado para conhecer”, disse o repórter da CBS News, Scott Pelley, no vídeo.

Especialistas em IA dizem que este é um diploma de bacharel completo. O robô não apenas não aprendeu uma língua estrangeira que “nunca treinou para saber”, mas também nunca aprendeu uma nova habilidade. Todo o clipe levou pesquisadores e especialistas em IA a criticar o enquadramento enganoso do programa de notícias no Twitter.

“Eu certamente espero que alguns jornalistas analisem todo o segmento @60Minute no Google Bard como um estudo de caso sobre como *não* cobrir a IA”, disse Melanie Mitchell, pesquisadora de IA e professora do Santa Fe Institute, ele escreveu em um tweet.

“Pare de pensar em mágica sobre tecnologia! Não é possível para #AI responder em bengali, a menos que os dados de treinamento tenham sido contaminados com bengali ou treinados em um idioma que se sobrepõe ao bengali, como assamês, oriya ou hindi”, disse ela. Alex O. pesquisador do Instituto de Tecnologia de Massachusetts, Adicionado em outro post.

Vale a pena notar 60 minutos O clipe não dizia exatamente qual IA eles usavam. Um porta-voz da CBS disse ao The Daily Beast que o segmento não era uma discussão sobre Bard, mas um programa separado sobre inteligência artificial. No entanto, as razões pelas quais essa parte é tão frustrante para esses especialistas é que ela ignora e brinca com a realidade do que a IA generativa pode realmente fazer. Ele não pode “ensinar” um idioma a si mesmo se não tiver acesso a ele em primeiro lugar. Isso seria como tentar aprender mandarim sozinho, mas você só ouviu depois que alguém lhe perguntou mandarim uma vez.

Afinal, a linguagem é incrivelmente complexa – com nuances e regras que exigem um grau incrível de contexto para entender e se comunicar. Não há como, mesmo para o LLM mais avançado, lidar e aprender tudo isso com alguns prompts.

Além disso, o software de IA pode já ter sido treinado para conhecer o bengali, a língua dominante em Bangladesh. Margaret Mitchell (sem parentesco), pesquisadora do Startup Lab da AT HuggingFace e ex-Google, explicou isso em Tópico do tweet Argumente por que 60 minutos Provavelmente foi um erro.

Mitchell observou que o Bard – o chatbot publicamente disponível recentemente lançado pelo Google – inclui o trabalho de uma iteração inicial de seu modelo chamado PaLM. Em uma demonstração de 2022, o Google mostrou que o PaLM pode se comunicar e responder a solicitações em bengali. o Papel por trás do PaLM Ele revelou em uma folha de dados que o modelo foi realmente treinado no idioma com aproximadamente 194 milhões de símbolos no alfabeto bengali.

Embora não saibamos qual era o misterioso programa de IA separado, ele provavelmente se baseava no mesmo trabalho do PaLM – o que explicaria a presença de bengali no conjunto de dados.

Não está claro por que Pichai, o CEO do Google, sentou-se para a entrevista e permitiu que essas alegações continuassem sem oposição. (O Google não respondeu aos pedidos de comentários.) Desde que o episódio foi ao ar, ele permaneceu em silêncio, apesar dos especialistas apontarem as alegações enganosas e falsas feitas no clipe. No Twitter Margaret Mitchell Proposta A razão por trás disso pode ser uma combinação de líderes do Google que não sabem como seus produtos funcionam e também que isso permite a propagação de mensagens ruins para abordar o atual hype em torno da IA ​​generativa.

“Eu suspeito [Google executives] Eu literalmente não entendo como isso funciona, Mitchell chilro. “O que escrevi acima provavelmente é novidade para eles. E eles estão motivados a não entender (CONVERSE COM OS OLHOS NESTA FICHA DE DADOS!!).”

A segunda metade do vídeo também pode ser vista como problemática, já que Pichai e Billy discutem um conto que Bard criou que “soou muito humano”, deixando os dois homens um tanto abalados.

A verdade é que esses produtos não são mágicos. Eles são incapazes de ser “humanos” porque não são humanos. Eles são preditores de texto como os do seu telefone, treinados para encontrar as palavras e frases mais prováveis ​​após uma série de palavras em frases. Dizer que eles existem pode dar a eles um nível de poder que pode ser incrivelmente perigoso.

Afinal, os usuários podem usar esses sistemas de IA generativos para fazer coisas como espalhar desinformação. Já vimos isso manipular a aparência das pessoas e até mesmo suas vozes.

Mesmo um chatbot sozinho pode causar danos se acabar produzindo resultados tendenciosos – algo que já vimos com o ChatGPT e o Bard. Conhecendo a propensão desses chatbots para alucinar e fabricar resultados, eles podem espalhar informações erradas para usuários desavisados.

A pesquisa confirma isso também. Um estudo recente Postado em Relatórios científicos Ele descobriu que as respostas humanas a questões éticas poderiam ser facilmente influenciadas pelos argumentos feitos pelo ChatGPT – e até mesmo que os usuários subestimaram muito o quanto foram afetados pelos bots.

Afirmações enganosas sobre 60 minutos É realmente apenas um sintoma da maior necessidade de alfabetização digital no momento em que mais precisamos. Muitos especialistas em IA dizem que agora, mais do que nunca, é o momento em que as pessoas precisam estar cientes do que a IA pode ou não fazer. Esses fatos básicos sobre robótica também devem ser comunicados de forma eficaz ao público em geral.

Isso significa que as pessoas com as maiores plataformas e as vozes mais altas (ou seja, a mídia, os políticos e os CEOs da Big Tech) têm a maior responsabilidade em garantir um futuro de IA mais seguro e educado. Se não o fizermos, podemos acabar como os homens das cavernas mencionados acima, brincando com a magia do fogo – e nos queimando no processo.

Nota do editor: uma versão anterior desta história dizia que a IA discutida no segmento de 60 minutos era Bard quando era uma IA separada do Google.