Dezembro 23, 2024

Revista PORT.COM

Informações sobre Portugal. Selecione os assuntos que você deseja saber mais sobre no Revistaport

O Bing Chat com inteligência artificial ganha três personalidades distintas – Ars Technica

O Bing Chat com inteligência artificial ganha três personalidades distintas – Ars Technica
Três cabeças de robôs de cores diferentes.

Bing Edwards / Ars Technica

Na quarta-feira, o funcionário da Microsoft Mike Davidson anunciar A empresa introduziu três estilos de personalidade distintos para seu bot experimental do Bing Chat com inteligência artificial: criativo, equilibrado ou preciso. Microsoft era testes Recurso desde 24 de fevereiro com um conjunto limitado de usuários. Alternar entre os modos produz resultados diferentes que os alteram equilíbrio entre precisão e criatividade.

O Bing Chat é um assistente com inteligência artificial baseado em um Advanced Large Language Model (LLM) desenvolvido pela OpenAI. A principal vantagem do Bing Chat é que ele pode pesquisar na web e incorporar os resultados em suas respostas.

A Microsoft anunciou o Bing Chat em 7 de fevereiro e, logo depois que foi lançado, ataques hostis regularmente levaram uma versão inicial do Bing Chat a simular frenesi, e os usuários descobriram que um bot poderia ser persuadido a usá-lo. ameaçado eles. Não muito depois disso, a Microsoft reduziu massivamente as revoluções do Bing Chat, impondo limites estritos sobre a duração das conversas.

Desde então, a empresa experimentou maneiras de trazer de volta um pouco da personalidade rude do Bing Chat para aqueles que o desejavam, mas também permitir que outros usuários procurassem respostas mais sutis. Isso resultou em uma nova interface de “estilo de conversação” de três seleções.

Em nossos experimentos com todos os três modos, notamos que o modo “Criativo” produzia sugestões mais curtas e excêntricas que nem sempre eram seguras ou práticas. O modo “preciso” errou por excesso de cautela, às vezes não sugerindo nada se não visse uma maneira segura de obter um resultado. No meio, o modo “balanceado” mais longo geralmente produz respostas com os resultados de pesquisa mais detalhados e citações de sites em suas respostas.

Com modelos de linguagem grandes, os erros inesperados (alucinações) geralmente aumentam à medida que a “criatividade” aumenta, o que geralmente significa que o modelo de IA se desviará mais das informações que aprendeu em seu conjunto de dados. Pesquisadores de IA costumam chamar essa característica de “TemperaturaMas os membros da equipe do Bing dizem que há mais em andamento com os novos padrões de conversação.

De acordo com um funcionário da Microsoft Michael BarakhinA alternância de modos no Bing Chat altera aspectos fundamentais do comportamento do bot, incluindo a alternância entre diferentes modelos de IA recebidos treino adicional das respostas humanas às suas saídas. Modos diferentes também usam prompts iniciais diferentes, o que significa que a Microsoft está aprimorando o prompt de seleção de personagem como o revelado no ataque de injeção instantânea sobre o qual escrevemos em fevereiro.

Embora o Bing Chat ainda esteja disponível apenas para aqueles que se inscreveram em uma lista de espera, a Microsoft continua aprimorando continuamente o Bing Chat e outros recursos de pesquisa do Bing com inteligência artificial, enquanto se prepara para distribuí-los mais amplamente aos usuários. A Microsoft anunciou recentemente planos para integrar a tecnologia ao Windows 11.