Google regresa con sus gafas inteligentes en 2026: tendrán IA, asistente de voz y más

La empresa lanzará dos modelos: uno sin pantalla para audio y otro con pantalla monocular de microLEDs

Guardar
Google / 9to5google

Google vuelve al mercado de las gafas inteligentes en 2026 con el lanzamiento de su próximo dispositivo impulsado por inteligencia artificial, una apuesta que busca retomar la visión de Google Glass.

Tras más de una década de desarrollo interno y mejoras en hardware y software, la empresa da un giro a su estrategia con alianzas e innovaciones, como la integración del sistema operativo Android XR y el asistente de IA Gemini, para ofrecer funciones a través de comandos de voz y cámara.

Cómo serán las gafas inteligentes de Google

En 2026, Google lanzará al menos dos líneas de gafas inteligentes con y sin pantalla, ambas soportadas por Android XR, su sistema operativo para dispositivos inmersivos.

El primer modelo apunta a ofrecer una experiencia de audio para interactuar con el asistente Gemini a través de comandos de voz, cámara y micrófono integrados. Este formato busca captar al público que prioriza la comunicación y la interacción sin distracciones visuales.

Google anuncia el regreso de
Google anuncia el regreso de sus gafas inteligentes en 2026, impulsadas por inteligencia artificial y el sistema Android XR. (Europa Press)

El segundo modelo, más ambicioso, será un par de gafas con pantalla monocular localizada en uno de los lentes, una tecnología llamada “monocular display”. Gracias a microLEDs, desarrollados tras la adquisición de Raxium en 2022, Google logra una resolución nítida y colores vivos, ofreciendo una visualización flotante de información directamente en el campo de visión.

Durante una demostración, detallada por 9to5google, Google mostró cómo estas gafas pueden responder a comandos de voz con pantalla y ofrecer funciones como reproducir canciones, contestar videollamadas, tomar fotografías, editar y añadir elementos en la escena usando la aplicación Nano Banana Pro, y mostrar notificaciones que se sincronizan con otros dispositivos como el reloj inteligente con Wear OS.

El usuario puede interactuar mediante gestos, controles táctiles en las patillas o botones físicos ubicados estratégicamente, como uno de cámara arriba del soporte o el encendido y apagado de la pantalla debajo.

Qué funciones tendrán las nuevas gafas de Google

Google apuesta a que las gafas con pantalla permitirán desde navegar por direcciones en tiempo real hasta recibir traducciones instantáneas, notificaciones y controles multimedia sin la necesidad de mirar otro dispositivo.

Google / 9to5google

Un ejemplo es la integración del Google Maps Live View, que despliega indicaciones de ruta de forma discreta mientras el usuario camina y, al inclinar la cabeza, revela un mapa interactivo semejante a los videojuegos. Empresas como Uber ya preparan experiencias optimizadas para la plataforma, como guías visuales para encontrar puntos de encuentro en aeropuertos.

La compañía asegura que la interfaz se mantiene sencilla y minimalista, con paneles inspirados en widgets de Android y en la filosofía Material Design, permitiendo una transición fluida entre las distintas funciones y minimizando la sobrecarga visual.

Para los desarrolladores, Google ya puso a disposición kits y emuladores que facilitan la creación y optimización de aplicaciones para Android XR, asegurando desde el comienzo un ecosistema robusto sin depender de programas completamente nuevos, sino adaptaciones de las apps ya existentes para dispositivos móviles.

El nuevo dispositivo de Google
El nuevo dispositivo de Google integrará el asistente Gemini y permitirá interacción por comandos de voz, cámara y micrófono.(REUTERS/Dado Ruvic/Illustration//File Photo)

Otras novedades del ecosistema inmersivo de Google

Junto con el anuncio de sus gafas, Google presentó nuevas funciones para el Galaxy XR, el visor de realidad extendida desarrollado junto a Samsung. Entre las nuevas capacidades destacaron la conexión a computadoras con Windows, así como un “modo viaje” que permite utilizar el dispositivo de manera optimizada tanto en aviones como en automóviles, ampliando el atractivo del ecosistema inmersivo de Google frente a sus rivales.

La compañía también mostró prototipos aún más avanzados, como las gafas binoculares con pantallas en ambos lentes mediante tecnología waveguide, capaces de reproducir videos en 3D nativo y mapas interactivos con zoom, anticipando que la verdadera convergencia entre productividad y realidad aumentada todavía está en desarrollo y promete futuras sorpresas.