No final do I/O, conferência anual de desenvolvedores do Google no Shoreline Amphitheatre em Mountain View, o CEO do Google, Sundar Pichai, revelou que a empresa disse “AI” 121 vezes. Esta foi, essencialmente, a essência da palestra de duas horas do Google – trazer a IA para todos os aplicativos e serviços do Google usados por mais de dois bilhões de pessoas em todo o mundo. Aqui estão todas as principais atualizações do grande evento do Google, além de alguns anúncios adicionais que vieram após a palestra.
Atualizações Gemini 1.5 Flash e Gemini 1.5 Pro
O Google anunciou um modelo de IA totalmente novo chamado Gemini 1.5 Flash, que afirma ser otimizado para velocidade e eficiência. O Flash fica entre o Gemini 1.5 Pro e o Gemini 1.5 Nano, o menor modelo da empresa que roda nativamente no aparelho. O Google disse que criou o Flash porque os desenvolvedores queriam um modelo mais leve e menos caro do que o Gemini Pro para criar aplicativos e serviços baseados em IA, ao mesmo tempo que mantinha algumas coisas como uma janela de contexto de um milhão de caracteres que diferenciava o Gemini Pro dos modelos concorrentes. Ainda este ano, o Google dobrará a janela de contexto do Gemini para 2 milhões de tokens, o que significa que será capaz de processar 2 horas de vídeo, 22 horas de áudio e mais de 60.000 linhas de código ou mais de 1,4 milhão de palavras de uma só vez. . A Hora. .
Projeto Astra
O Google exibiu o Projeto Astra, uma versão inicial de um assistente global movido por IA, que Demis Hassabis, CEO da DeepMind do Google, disse ser a versão do Google de um agente de IA “que pode ser útil na vida cotidiana”.
Em um vídeo que o Google diz ter sido filmado de uma só vez, um usuário do Astra anda pelo escritório do Google em Londres segurando seu telefone e apontando a câmera para coisas diferentes – um alto-falante, algum código em um quadro branco, fora de uma janela – e tem uma conversa natural. com o aplicativo sobre sua aparência. E em um dos momentos mais impressionantes do vídeo, ela diz corretamente ao usuário onde deixou os óculos antes, sem que o usuário sequer os levante.
O vídeo termina com uma surpresa – quando o usuário encontra os óculos perdidos e os coloca, ficamos sabendo que eles possuem um sistema de câmera embutido e são capazes de usar o Projeto Astra para conversar perfeitamente com o usuário, o que pode sugerir que O Google pode estar trabalhando em um concorrente para os óculos inteligentes Ray Ban da Meta.
Pergunte ao Imagens do Google
O Google Fotos já era inteligente quando se tratava de pesquisar fotos ou vídeos específicos, mas com a IA, o Google está levando as coisas para o próximo nível. Se você for assinante do Google One nos EUA, poderá fazer ao Google Fotos uma pergunta complexa como “Mostre-me a melhor foto de cada parque nacional que você visitou” quando o recurso for lançado nos próximos meses. O Google Fotos usará suas informações de GPS, bem como seu próprio julgamento sobre o que é “melhor” para lhe fornecer opções. Você também pode pedir ao Google Fotos para gerar legendas para postar fotos nas redes sociais.
Veja e imagine 3
Os novos mecanismos de criação de mídia baseados em IA do Google são chamados de Veo e Imagine 3. Veo é a resposta do Google ao Sora da OpenAI. O Google disse que pode produzir vídeos 1080p de “alta qualidade” que podem durar “mais de um minuto” e pode compreender conceitos cinematográficos como lapso de tempo.
Enquanto isso, Imagen 3 é um gerador de texto para imagem que o Google afirma que lida com texto melhor do que seu antecessor, Imagen 2. O resultado é o modelo de texto para imagem da mais alta qualidade da empresa com um “incrível nível de detalhe” para “realista , imagens realistas.” ” e menos artefatos – o que essencialmente o compara ao DALLE-3 da OpenAI.
Grandes atualizações na Pesquisa Google
O Google está fazendo grandes mudanças na forma como a pesquisa funciona fundamentalmente. A maioria das atualizações anunciadas hoje são como a capacidade de fazer perguntas realmente complexas (“Encontre os melhores estúdios de ioga ou Pilates em Boston e veja detalhes sobre ofertas e tempos de caminhada em Beacon Hill”) e usar a pesquisa para planejar refeições e férias. Ele não estará disponível a menos que você se inscreva no Search Labs, a plataforma da empresa que permite que as pessoas experimentem recursos beta.
Mas o grande novo recurso, que o Google chama de AI Overviews e que a empresa vem testando há um ano, está finalmente sendo lançado para milhões de pessoas nos Estados Unidos. A Pesquisa Google agora apresentará respostas geradas por IA no topo dos resultados por padrão, e a empresa afirma que disponibilizará o recurso para mais de um bilhão de usuários em todo o mundo até o final do ano.
Gêmeos no Android
O Google está integrando o Gemini diretamente ao Android. Quando o Android 15 for lançado ainda este ano, o Gemini saberá qual aplicativo, foto ou vídeo você está reproduzindo e poderá arrastá-lo como uma sobreposição e fazer perguntas específicas ao contexto. Onde fica o Google Assistente que já faz isso? Quem você conhece! O Google não mencionou isso durante a palestra de hoje.
Melhorias na duração da bateria do WearOS 5
O Google ainda não está pronto para lançar a versão mais recente de seu sistema operacional smartwatch, mas promete algumas melhorias importantes na duração da bateria quando chegar. A empresa disse que o Wear OS 5 consumirá 20% menos energia do que o Wear OS 4 se um usuário correr uma maratona. O Wear OS 4 trouxe melhorias na duração da bateria dos smartwatches que o suportam, mas ainda poderia ser muito melhor no gerenciamento da energia do dispositivo. O Google também forneceu aos desenvolvedores um novo guia sobre como economizar energia e bateria, para que possam criar aplicativos mais eficientes.
Recursos anti-roubo do Android 15
A prévia do desenvolvedor do Android 15 pode estar em andamento há meses, mas ainda há recursos chegando. O bloqueio de detecção de roubo é um dos novos recursos do Android 15 que usará IA (aqui está novamente) para prever o roubo do telefone e bloquear as coisas de acordo. O Google afirma que seus algoritmos podem detectar movimentos associados a roubo, como aqueles associados a pegar um telefone e ir embora, andar de bicicleta ou ir embora. Se um telefone Android 15 selecionar uma dessas situações, a tela do telefone será bloqueada rapidamente, dificultando o acesso de um sequestrador de telefone aos seus dados.
Houve várias outras atualizações também. O Google disse que adicionará marcas d’água digitais a vídeos e textos gerados por IA, tornará o Gemini acessível no painel lateral do Gmail e do Docs, oferecerá suporte a um colega virtual com tecnologia de IA no Workspace, ouvirá chamadas telefônicas e detectará se você está realmente sendo enganado tempo e muito mais.
Acompanhe todas as novidades do Google I/O 2024 ao vivo aqui!
Atualizado em 15 de maio, às 14h45 horário do leste dos EUA: Esta história foi atualizada após a publicação para incluir detalhes sobre os novos anúncios do Android 15 e WearOS 5 lançados após a palestra I/O 2024.
More Stories
Harry Potter: o nível de pomo dos campeões de quadribol foi significativamente reduzido no PS5 e PS4
Vazamentos sobre planos de anúncio do PS5 Pro e design de dispositivos
Lançamento físico da Castlevania Dominus Collection confirmado, pré-encomendas abertas no próximo mês