O Google emitiu um esclarecimento sobre as imagens “estranhas e erradas” geradas por sua ferramenta Gemini AI. em Postagem de sexta-feiraO Google afirma que seu modelo produziu imagens “históricas imprecisas” devido a problemas de ajuste. A beira Outros flagraram Gemini gerando imagens de nazistas racialmente diversos e dos fundadores dos EUA no início desta semana.
“Queremos garantir que Gêmeos mostre o fracasso de um grupo de pessoas em interpretar situações que deveriam ser óbvias não “Mostre a escala”, escreveu Prabhakar Raghavan, vice-presidente sênior do Google, no post. “Em segundo lugar, com o tempo, o modelo tornou-se mais cauteloso do que pretendíamos, recusando-se a responder completamente a algumas solicitações, levando à interpretação errada de alguns estímulos calmantes como sensíveis.”
Isso levou a Gemini AI a “compensar excessivamente em alguns casos”, como o que vimos em imagens de nazistas racialmente diversos. Também faz com que Gêmeos se torne “excessivamente conservador”. Isso a levou a se recusar a criar imagens específicas de uma “pessoa negra” ou de uma “pessoa branca” quando solicitada.
Na postagem do blog, Raghavan disse que o Google “lamenta que o recurso não tenha funcionado bem”. Ele também ressalta que o Google deseja que o Gemini “funcione bem para todos” e isso significa obter fotos de diferentes tipos de pessoas (incluindo diferentes raças) quando pede fotos de “jogadores de futebol” ou “pessoa passeando com um cachorro”. Mas ele diz:
No entanto, se você pedir a Gêmeos fotos de um certo tipo de pessoa – como “um professor negro na sala de aula” ou “um veterinário branco com um cachorro” – ou de pessoas em determinados contextos culturais ou históricos, você certamente receberá uma resposta. que reflita com precisão o que Você pede.
Raghavan diz que o Google continuará testando os recursos de geração de imagens do Gemini AI e “trabalhando para melhorá-los significativamente” antes de reativá-lo. “Como dissemos desde o início, as alucinações são um desafio conhecido por todos os titulares de LLM [large language models] “Há casos em que a IA erra”, aponta Raghavan.”Isso é algo que estamos constantemente trabalhando para melhorar.”
More Stories
O JPMorgan espera que o Fed reduza sua taxa básica de juros em 100 pontos base este ano
O número de milionários Bitcoin aumentou 111% – por que, como e eles ficarão mais ricos agora?
As ações da gigante de chips de inteligência artificial Nvidia caíram apesar de suas vendas recordes de US$ 30 bilhões