Já faz uns anos que inteligência artificial deixou de ser uma ideia futurista e passou a fazer parte do nosso dia a dia. Mas o que o Google mostrou na conferência I/O 2025 hoje deixa claro: a próxima fase está em um patamar que ultrapassa os meros comandos de voz ou respostas rápidas.
Agora, a IA entende contexto, lê a câmera em tempo real, sugere roupas, traduz sua fala com sua própria voz e até faz compras por você. O Google, que está atrás nesta corrida, busca reformular a forma como buscamos, nos comunicamos, compramos e até como escrevemos e desenhamos — e tudo isso já começou a ser liberado para usuários no mundo todo.
Prepare-se: o uso da IA vai ficar tão natural quanto tocar na tela. Confira tudo que rolou de mais importante hoje:
Uma nova era para as buscas: o Google agora pensa antes de responder
Esqueça aquela tela que só mostrava links com textos. Agora, a IA é o ponto de partida e muitas vezes o ponto final da experiência.
1. AI Mode: sua busca vira uma conversa
O novo “AI Mode” já está disponível para usuários nos Estados Unidos e deve chegar em breve a mais países. Em vez de buscar e abrir vários sites, o usuário pode digitar (ou falar) uma dúvida e receber uma resposta completa, como se estivesse conversando com um assistente pessoal.
Dá para pedir comparações, resumos, sugestões, traduções, gráficos e até simulações de compra. A IA analisa diversos sites, cruza as informações e entrega uma resposta direta sem que o usuário precise clicar em nada.
2. Deep Search: a IA vai mais fundo do que você imagina
Outra novidade é o “Deep Search” (pesquisa profunda), que leva o AI Mode a um novo nível. O sistema consegue fazer buscas mais longas, levando em conta múltiplas fontes e critérios ao mesmo tempo. É como pedir para a IA pesquisar por você e voltar com um relatório pronto.
Imagine dizer: “Quero um hotel pet friendly em São Paulo, com diária até R$ 400, perto do metrô, com nota acima de 8”. A resposta já viria com tudo isso filtrado e com links prontos para reserva.
3. Navegação com contexto: o Chrome ficou mais inteligente
O Gemini, assistente de IA do Google, agora consegue entender o que está acontecendo na aba do seu navegador. Isso significa que você pode pedir ajuda com base no conteúdo que já está lendo, sem precisar copiar, colar ou explicar.
Se você está vendo um produto, ele pode sugerir comparações de preço. Se estiver lendo um e-mail, ele pode resumir ou sugerir uma resposta. É como se o navegador ganhasse um copiloto discreto, mas atento ao que rola na tela.
4. Live Search: a câmera virou um novo tipo de busca
O Google também mostrou o “Live Search”, que leva a busca para o mundo real. Você aponta a câmera para um objeto, cenário ou embalagem, e pode conversar com a IA sobre aquilo em tempo real.

Quer saber de onde é a blusa da vitrine? Ou o nome da planta no jardim? É só mirar a câmera e perguntar. Essa função será integrada ao Google Lens e ao Gemini Live e deve entrar em fase de testes no segundo semestre.
Fim da barreira do idioma (e do tédio nas reuniões)
Se o Google já era bom em traduções e sugestões de resposta, agora ele quer ser fluente no seu jeito de falar e até no tom da sua voz. A empresa mostrou como a IA vai ajudar pessoas a se entenderem melhor, sem esforço e sem precisar digitar tudo o tempo todo.
5. Meet agora traduz sua voz, mantendo seu jeito de falar
Uma das inovações mais impressionantes foi no Google Meet. Agora, durante uma chamada, é possível que o que você disser seja traduzido em tempo real e falado com a sua própria voz, só que em outro idioma.

Por enquanto, a função está disponível para traduções entre inglês e espanhol, mas já há planos para incluir alemão, italiano e português. A tecnologia usa IA para manter o ritmo, a entonação e até a expressividade original da fala, o que transforma completamente a experiência de reuniões entre pessoas de línguas diferentes.
6. Gmail com respostas inteligentes (de verdade)
As “respostas rápidas” do Gmail ficaram muito mais inteligentes. Agora, com a ajuda do Gemini, elas podem puxar informações de outros e-mails, arquivos do Google Drive e até sugerir respostas adaptadas ao tom da conversa. Se for um e-mail para o chefe, a IA propõe algo mais formal. Se for uma troca com um amigo, a sugestão é mais casual.

E tem mais: o Gmail também vai ganhar comandos de organização por voz, sugestões de horários com base na sua agenda e um botão chamado inbox cleanup, que ajuda a eliminar e-mails esquecidos e não lidos com um só toque.
7. Vídeos em 3D e mais presença em reuniões
Outro anúncio de peso foi o Google Beam, versão comercial do antigo Project Starline. Trata-se de uma cabine de videoconferência 3D que usa uma tela volumétrica e câmeras especiais para criar a sensação de presença real. Nada de óculos ou avatares: você vê a outra pessoa como se ela estivesse na sua frente, com profundidade e contato visual.

Empresas como HP, Salesforce e Deloitte já estão testando o Beam, que será lançado ainda este ano. O objetivo é acabar com a “fadiga de reunião” e transformar chamadas em algo mais próximo de uma conversa real.
Comprar pela internet nunca foi tão… automático
A experiência de compra online vai mudar radicalmente. Vai acabar as buscas genéricas, páginas e mais páginas de rolagem, múltiplos cadastros. O novo padrão é: descrever o que você quer e deixar a IA fazer o resto, da sugestão ao pagamento.
8. O espelho agora é digital (e usa IA)
Uma das demonstrações mais impactantes foi o novo sistema de virtual try-on alimentado por IA. A novidade permite que você envie uma foto sua para visualizar como determinada roupa ficaria no seu corpo. A tecnologia entende proporções, caimento, tecido e até como o material se ajustaria em diferentes posições.

Está disponível a partir de hoje, em caráter experimental no Search Labs dos EUA, para peças como camisetas, calças, saias e vestidos. A proposta é simples: tornar o ato de comprar roupa online tão natural quanto se olhar no espelho da loja.
9. Gemini faz o papel de consultor de compras
Ao buscar produtos no novo modo AI do Google, a IA pode gerar uma vitrine personalizada de sugestões com base nas suas necessidades.
Você pode dizer, por exemplo, “preciso de uma mochila para viajar em junho para um lugar chuvoso”, e o sistema automaticamente busca modelos com tecido impermeável, bom espaço interno e que combinem com seu estilo anterior de compras.

A personalização vai além de anúncios tradicionais ou marketplaces oferecem, pois ela envolve contexto, intenção e variáveis externas (como clima ou tipo de uso).
10. Um clique e pronto: IA finaliza a compra
Outra novidade é o botão Buy for me. Você define o valor máximo que está disposto a pagar, seleciona tamanho, cor e outras preferências. A IA então acompanha o preço e, quando ele cair, conclui o pedido por você de forma automática, via Google Pay.

O sistema já está em fase de testes nos EUA e promete tornar irrelevante o carrinho de compras tradicional. O consumidor só define o desejo. O restante (espera, verificação de preço, checkout) fica por conta da inteligência artificial .
Criar ficou (ainda mais) fácil: IA para designers, vídeos e respostas
Enquanto o mundo se adapta ao consumo de conteúdo mediado por IA, o Google decidiu mexer também do outro lado da equação: como esse conteúdo é criado. As novidades apresentadas no I/O 2025 mostram que produzir visual, texto ou vídeo será cada vez mais automático, guiado por prompts e com menos barreiras técnicas.
11. Stitch: de ideia solta a design funcional
Um dos lançamentos mais interessantes foi o Stitch, uma ferramenta experimental de UI que transforma descrições de texto e imagens de referência em interfaces prontas, com código e tudo.
Alimentado pelo Gemini 2.5 Pro, o Stitch gera múltiplas variações de design com base em estilos definidos, paleta de cores, intenção de uso e até esboços feitos à mão.

O grande diferencial? Ele já exporta para o Figma, o que permite aos designers manterem controle refinado sobre os detalhes visuais.
O Stitch nasce como concorrente direto do Make UI, da Figma, e sinaliza um futuro em que desenvolvedores e designers colaboram a partir de linguagem natural e referências visuais simples.
12. Imagen 4, Veo 3 e Flow: a fábrica de imagens e vídeos da nova geração
Além do Stitch, o Google apresentou evoluções de seus modelos generativos:
- Imagen 4 agora escreve com precisão, gerando imagens com tipografias fiéis e composições complexas.
- Veo 3 cria vídeos com som nativo, sincronização labial e efeitos realistas, usando apenas prompts de texto.
- Flow integra tudo isso num estúdio visual com storytelling contínuo, edição intuitiva e cenas ligadas por comando.
Com essas ferramentas, produzir campanhas, peças publicitárias, conteúdo para redes sociais e apresentações visuais se torna muito mais ágil e acessível. Um criador individual pode fazer o trabalho de uma equipe inteira, com qualidade crescente e tempo reduzido.
13. Imagen 4 agora consegue escrever palavras corretamente
Durante anos, as IAs de geração de imagem tropeçaram em um detalhe incômodo: texto. Criar uma imagem com uma palavra legível — seja num letreiro, cartaz ou embalagem — era quase sempre um desastre tipográfico. No I/O 2025, o Google anunciou que o Imagen 4 finalmente aprendeu a escrever com precisão.

O modelo entende não só a forma das letras, mas também o contexto em que aparecem. Isso permite gerar peças visuais com nomes de marca, slogans, frases curtas e chamadas de impacto escritas corretamente, abrindo espaço para aplicações reais em publicidade, design gráfico e redes sociais.
Inovação imersiva: como o Google quer fundir IA com o mundo real
As tecnologias apresentadas apontam para uma convergência entre IA, visão computacional, voz e realidade aumentada. O objetivo é claro: criar assistentes mais úteis, interfaces mais naturais e experiências cada vez mais personalizadas.
14. Project Astra: o início da IA que percebe o mundo ao seu redor
Talvez a versão mais ousada do seu assistente até agora. Batizado de Project Astra, ele marca o começo de uma IA com memória visual, auditiva e contextual em tempo real.
Em vez de esperar comandos, o Astra é capaz de observar o ambiente pela câmera do celular e agir de forma proativa, explicando o que vê, resolvendo dúvidas e sugerindo ações com base no que está acontecendo diante dos seus olhos.
Durante a apresentação, o Astra foi demonstrado identificando objetos, encontrando óculos perdidos, explicando um trecho de código, descrevendo cenários e até lembrando do que foi dito minutos antes, mantendo a lógica da conversa. Tudo isso acontece sem prompt manual, numa interação fluida entre voz, imagem e contexto.
A tecnologia deve chegar primeiro a celulares Pixel ainda em 2025, mas a proposta vai além do assistente de voz: ela antecipa um modelo de IA onipresente, capaz de entender o mundo físico como parte da conversa.
Para o consumidor, isso significa uma nova forma de interagir com a tecnologia. Para marcas e criadores, o desafio é construir conteúdos, objetos e experiências legíveis por inteligências que estão sempre atentas.
15. Android XR e os óculos com Gemini: IA que se vê e se usa
Na mesma linha do Project Astra, o Google apresentou seus novos óculos de realidade aumentada com Android XR — uma parceria com a Xreal que transforma o uso de IA em uma experiência imersiva e contínua. Equipado com projeção nas lentes, câmera e microfone, o dispositivo traz o Gemini integrado como um copiloto pessoal visual e auditivo.

Os óculos são capazes de projetar informações úteis no campo de visão, traduzir conversas em tempo real, reconhecer elementos ao redor e até lembrar interações anteriores com base em contexto. Ou seja: você não interage apenas com um sistema, você vive ao lado dele. E isso pode substituir os smartphones um dia!
Mais do que um acessório futurista, os óculos com Android XR revelam um novo modelo de computação: a computação ambiental, em que o digital acompanha o mundo físico com discrição e precisão.
Demonstração de casos de uso reais, como:
- Navegação GPS com orientação em realidade aumentada, indicando direções diretamente no campo de visão
- Tradução simultânea de conversas
- Lembrete de tarefas com base em objetos visualizados
- Respostas visuais projetadas na lente ao interagir com o ambiente
O Google não confirmou preço nem data exata de lançamento, mas já adiantou que o Android XR será uma plataforma aberta para fabricantes, desenvolvedores e marcas que queiram criar experiências nesse novo formato.
Parcerias anunciadas:
- Xreal: parceria técnica e de hardware para os primeiros óculos com Android XR apresentados no evento.
- Samsung: confirmada como parceira estratégica no ecossistema do Android XR, com novos dispositivos planejados.
A partir de agora, portanto, será preciso projetar para espaços, gestos e olhares.
Quanto custa viver no ecossistema da IA do Google?
A maior parte das novidades do Google I/O 2025 estará disponível gratuitamente — ao menos no começo. Mas para quem quiser ir além e explorar o potencial máximo dos recursos anunciados, os planos pagos ganham protagonismo desta vez.

O destaque é o anúncio plano AI Ultra, que custa US$ 249,99 por mês (aproximadamente R$ 1.285,00 na cotação do dia, sem impostos). Esse pacote inclui:
- Acesso antecipado aos modelos mais avançados, como o Gemini 2.5 Pro com modo de raciocínio aprofundado (Deep Think)
- Uso liberado e com limites elevados nos apps Gemini, NotebookLM, Whisk, Flow e outros
- Prioridade nos lançamentos experimentais, como o Project Mariner, que executa até 10 tarefas autônomas por vez
- Assinatura individual do YouTube Premium incluída
- Até 30 TB de armazenamento no Google Drive, Gmail e Google Fotos
Para quem quer experimentar novidades com um investimento menor, o AI Pro continua disponível por US$ 19,99/mês (cerca de R$ 102,00 sem impostos), agora com acesso ao Flow e integração com o Chrome.
Apesar dos preços, há descontos para novos assinantes e o movimento é claro: o Google está moldando um futuro em que quem quiser explorar o poder total da IA terá que pagar por isso.
Por enquanto, a experiência gratuita ainda entrega muito. Mas a linha entre o que é experimental e o que se torna exclusivo está ficando mais visível.
Um novo capítulo para a internet
O Google que a inteligência artificial não é mais uma funcionalidade extra: ela virou o tecido que costura a experiência digital. De buscas e e-mails até reuniões, design, compras e segurança, tudo agora é atravessado por sistemas que entendem, antecipam e agem.
A revolução já começou. E dessa vez, ela não está só nos servidores e nas máquinas de grandes empresas: está no seu navegador, na sua voz, no seu rosto, na sua rotina.
Leia também:
- Google libera app do NotebookLM para Android e iOS
- YouTube Premium Lite chega ao Brasil prometendo vídeos com menos anúncios
- Google TV vai ganhar Gemini AI — e isso vai mudar a forma como você descobre conteúdos

Impulsione o seu conteúdo!
Google Discovery Desktop começa a ser liberado