Primer vistazo a las gafas Android XR de Google: desde la navegación con Google Maps a una experiencia musical

Los asistentes al Mobile World Congress 2026 han podido experimentar un avanzado modelo de gafas inteligentes con inteligencia artificial de Google, que permite interactuar de forma natural, escuchar música y recibir datos visuales en tiempo real mediante una pantalla integrada

Guardar

Un grupo selecto de asistentes al Mobile World Congress 2026 pudo experimentar un avanzado prototipo de gafas inteligentes desarrolladas por Google, las cuales integran una pantalla capaz de mostrar datos visuales en tiempo real y permiten interactuar de manera natural con la inteligencia artificial Gemini. De acuerdo con la información publicada por el medio, el dispositivo presentó funciones como la reproducción musical mediante YouTube Music, la obtención de indicaciones en Google Maps y la identificación de objetos en el entorno, todo a través de comandos de voz y con respuestas visuales en el propio lente.

Según detalló la fuente, el modelo exhibido se apoya en la tecnología Android XR, plataforma anunciada en octubre del año anterior con el lanzamiento del visor Galaxy XR de Samsung, lo que evidencia el interés de Google en desarrollar experiencias de realidad extendida más allá de los visores tradicionales. Android XR respalda la ejecución de aplicaciones potenciadas por inteligencia artificial, capaces de ejecutarse en dispositivos ligeros con formato de gafas, cuyo desarrollo fue anunciado por Google en diciembre del año pasado.

Durante el evento, Google permitió a participantes probar estas gafas equipadas con altavoces, micrófonos, cámaras y la IA Gemini, aunque restringió la captura de fotografías y vídeos del prototipo. La interacción con las gafas se inicia pulsando la patilla derecha, después de lo cual el usuario entabla una conversación directa con Gemini. A partir de ese momento, se pueden explorar múltiples posibilidades como solicitar información de un objeto visible, pedir la reproducción de música asociada al reconocimiento visual de un disco, o solicitar detalles históricos de una pintura o edificio.

El medio reportó que la experiencia de navegación mediante Google Maps fue una de las principales demostraciones: al preguntar cómo llegar a un punto específico, el sistema muestra en la pantalla instrucciones detalladas y ofrece indicaciones por audio. Asimismo, los usuarios tuvieron la oportunidad de experimentar la función musical: al visualizar un disco físico y solicitar mediante instrucciones de voz que se reproduzca su canción más popular, Gemini analiza en tiempo real los datos del álbum y activa la reproducción desde YouTube Music a través de los altavoces integrados.

Entre los discos seleccionados para la prueba figuraron “Mayhem” de Lady Gaga, “Barcelona” de Freddie Mercury y Montserrat Caballé, y “The Dark Side of the Moon” de Pink Floyd. Con cada disco, Gemini determinó cuál era la pista más escuchada y la reprodujo directamente en las gafas, lo que ejemplificó la integración entre reconocimiento de objetos, búsqueda en línea y reproducción multimedia.

El medio también indicó que todas las respuestas proporcionadas por Gemini se presentan en forma de texto en la pantalla localizada en el cristal derecho de las gafas, lo que facilita la consulta visual rápida sin necesidad de recurrir a otros dispositivos. Además, Gemini es capaz de interactuar en varios idiomas, permitiendo a los usuarios comunicarse de acuerdo con sus preferencias lingüísticas.

Según consignó el medio, estas gafas constituyen un prototipo en fase de presentación y demostración, aunque los planes de Google apuntan a su próximo lanzamiento comercial. La empresa subrayó el objetivo de trasladar la experiencia de la inteligencia artificial y la realidad mixta a productos portables, con el fin de integrarse en la vida diaria y el estilo de usuarios, manteniendo un diseño considerado “elegante y ligero”.

El avance ejemplificado en el Mobile World Congress responde a la estrategia de Google de expandir la realidad extendida más allá de los visores tradicionales, focalizando parte de su desarrollo en dispositivos que conjugan inteligencia artificial, conectividad en tiempo real y portabilidad. El dispositivo exhibido representa la apuesta de la compañía por ofrecer nuevas formas de interacción con el entorno y el acceso a servicios digitales, mencionó el medio.

Finalmente, según publicó el medio, Google continúa trabajando para perfeccionar este tipo de tecnologías y aplicaciones, en colaboración con distintas áreas internas y socios tecnológicos, con la intención de hacer realidad su visión de una inteligencia artificial accesible y útil incorporada a objetos cotidianos.