Google mostrou novos óculos pela primeira vez com uma demonstração real: um inesperado evento ao vivo e uma aposta alta

  • Colaboração com o Xreal e controle de voz com o Gemini integrado

  • Eles funcionam com Android XR e se concentram em experiências práticas em tempo real

Imagem: Reprodução/Google
Sem comentários Facebook Twitter Flipboard E-mail
matheus-de-lucca

Matheus de Lucca

Editor-chefe

Editor-chefe do Xataka Brasil. Jornalista há 10 anos, entusiasta de tecnologia, principalmente da área de computação e componentes de PC. Saudosista da época em que em vez de um celular fazer tudo que se possa imaginar, tínhamos MP3, alarme e relógio.

A história do Google com os óculos ainda não acabou. Muito pelo contrário. Após anos de silêncio, a empresa os trouxe de volta ao centro das atenções. E isso foi feito com um projeto que revive um nome conhecido: Project Aura. Não é a primeira vez que ouvimos esse nome. Ele existe desde os dias do Google Glass, que acabou em um canto escuro da história tecnológica. Mas, desta vez, a abordagem é muito diferente.

Durante o Google I/O 2025, evento em que também vimos propostas como Modo IA da busca ou Beam, a empresa mostrou ao vivo o status de desenvolvimento de seu novo headset de realidade mista. Uma proposta que nasceu em colaboração com a Xreal e que, segundo os responsáveis pelo projeto, tem como objetivo levar a experiência do Android para o universo XR com naturalidade, contexto e respostas em tempo real.

Demonstração ao vivo, sem artifícios, sem confusão

Tudo começou quando Shahram Izadi, chefe de dispositivos, fez uma pergunta ao público, capturada em um vídeo publicado no YouTube: “Quem quer fazer uma demonstração antecipada dos óculos Android XR?” A resposta veio dos bastidores. Nishtha Bhatia, parte da equipe, apareceu no palco remotamente e começou a demonstrar como os óculos realmente funcionavam.

A primeira coisa que vimos foi uma interface em tempo real sobreposta ao ambiente. Por meio da câmera embutida, os óculos exibiam o que estava à sua frente enquanto Bhatia recebia mensagens, tocava música, procurava direções ou interagia com Gemini, o assistente de conversação, tudo isso usando comandos de voz. Sem tirar o celular do bolso. Sem pressionar nada.

Captura de tela da transmissão Google I/O 2025

Em um dos momentos mais impressionantes, a demonstração mostrou como ele poderia perguntar qual banda estava por trás de uma pintura que ele estava vendo. A Gemini respondeu, embora com algum atraso devido a problemas de conexão. Ele também solicitou que uma música da banda fosse tocada no YouTube Music, o que aconteceu sem nenhuma intervenção manual. Tudo foi capturado na imagem compartilhada em tempo real.

Tradução ao vivo e uma pequena falha no palco

O teste final consistiu em uma conversa entre Izadi e Bhatia em idiomas diferentes. Ela falou em hindi e ele em farsi. Os óculos, via Gemini, ofereciam tradução simultânea com interpretação de voz. O sistema funcionou corretamente por alguns segundos, mas a equipe decidiu interromper a demonstração quando detectou uma falha.

Apesar do contratempo, a mensagem foi clara: o Google quer voltar ao jogo dos óculos conectados, desta vez com uma base mais madura, apoiada por seu ecossistema de serviços, o Gemini, e colaborações com os principais participantes do mundo XR. A diferença, pelo menos por enquanto, está na abordagem: experiências práticas e em tempo real, sem enfeites ou promessas de longo prazo.

Inicio