
Google avanza hacia un futuro donde los usuarios dejarán de controlar directamente sus teléfonos móviles desde la pantalla, delegando esa función a su sistema de inteligencia artificial, Gemini.
Esta apuesta representa un cambio radical en la forma en que se interactúa con los dispositivos Android, abriendo la puerta a una nueva era de automatización en la que las acciones cotidianas dejarán de depender de la intervención manual.
PUBLICIDAD
Cómo es el proyecto de Google para la automatización
La compañía presentó públicamente las primeras pinceladas de este plan bajo el nombre de Project Astra, en su última conferencia de desarrolladores. Allí, mostró cómo Gemini puede actuar como un agente autónomo, capaz de ejecutar tareas en el teléfono, analizar el contenido en pantalla e incluso desplazarse y activar botones dentro de aplicaciones, sin que el usuario tenga que tocar la pantalla.
En las versiones beta más recientes de la aplicación de Google para Android, los desarrolladores han encontrado nuevas cadenas de código que confirman la inminente llegada de una funcionalidad bautizada como “screen automation”.
PUBLICIDAD

El nombre en clave interno para el sistema es “bonobo”. Esta herramienta permitirá a Gemini realizar acciones dentro de aplicaciones específicas: desde hacer pedidos en línea hasta solicitar un viaje en apps como Uber o Lyft, todo sin la necesidad de que el usuario interactúe físicamente con su móvil.
El propósito detrás de esta automatización es claro: liberar al usuario de las tareas repetitivas o simples que consumen tiempo, permitiendo que la inteligencia artificial asuma el control operativo bajo una supervisión constante.
PUBLICIDAD
Según lo demostrado en Project Astra, Gemini no solo es capaz de leer la información que se muestra en pantalla, sino que también puede desplazarse por interfaces, identificar y seleccionar opciones, y confirmar acciones de forma autónoma.
Cómo funcionaría la automización de Gemini en Android
El funcionamiento previsto de screen automation se apoya en la capacidad de Gemini para analizar, comprender y ejecutar instrucciones dentro de diferentes apps. Por ejemplo, el usuario podrá pedirle a la IA que compre un producto en línea o reserve un viaje.
PUBLICIDAD

La inteligencia artificial analizará la pantalla, detectará los elementos necesarios y procederá a realizar los pasos requeridos, desde el inicio del proceso hasta la confirmación final, sin que el usuario deba tocar la pantalla.
Los primeros indicios encontrados en el código de la versión beta de la aplicación de Google para Android sugieren que, aunque las funciones iniciales sean limitadas, el potencial de expansión es considerable. A futuro, Gemini podría gestionar desde el seguimiento de compras y pedidos hasta la organización de actividades personales, todo ello a través de una interfaz conversacional y proactiva.
PUBLICIDAD
La integración de screen automation en Android también trae consigo novedades en la interfaz de usuario. Se han detectado nuevas secciones, como “Purchases” (Compras) y “My orders” (Mis pedidos), dentro del área de gestión de cuentas y en la propia app de Gemini.
Aunque estas opciones aún no están operativas, anticipan la posibilidad de que los usuarios puedan consultar y gestionar órdenes directamente desde un panel centralizado, facilitando el seguimiento y la administración de las actividades realizadas por la inteligencia artificial.
PUBLICIDAD

Cómo será la privacidad y control del usuario
La autonomía de Gemini, sin embargo, no significa que el usuario pierda el control sobre su dispositivo. El propio código de la aplicación de Google incorpora advertencias claras: el usuario debe supervisar siempre las acciones realizadas por Gemini.
Aunque la IA está diseñada para minimizar la intervención humana, Google recalca que pueden producirse errores y que la responsabilidad última por cualquier acción ejecutada recae en el usuario. En todo momento, este podrá retomar el control manualmente si lo considera necesario.
PUBLICIDAD
Un aspecto relevante que surge de las cadenas de código encontradas es la preocupación por la privacidad y la seguridad de la información. Si el usuario habilita la función de mantener la actividad (“Keep Activity”), revisores entrenados podrán ver capturas de pantalla del dispositivo para garantizar el buen funcionamiento del sistema.
Por esta razón, se recomienda no ingresar información sensible o datos de pago mientras la automatización está activa, aunque no está claro si la IA podrá detectar automáticamente estos casos y pausar su intervención, o si dependerá del usuario desactivarla manualmente.
PUBLICIDAD
<br>
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Cuáles son los 8 juegos gratis de PlayStation en mayo y quiénes podrán reclamarlos
Todos los nuevos lanzamientos podrán descargarse a partir del 19 de mayo en PlayStation

Cuál es el dispositivo ideal para ayudar a bajar de peso
La eficacia de los dispositivos portátiles para perder peso ha sido avalada por un metaanálisis publicado en The Lancet Digital Health

El auto nacido de la inteligencia artificial: así es el nuevo compacto que redefine el diseño virtual
Este método contribuyó a alcanzar una relación más afinada entre el diseño visual y la estructura

Si tienes un computador desde hace 10 años que no sirve, puedes revivirlo con estos trucos
Ampliar la memoria RAM, es una de las soluciones porque permite ejecutar varios programas al mismo tiempo

Olvídate de la luz incómoda: el televisor que se ajusta solo y te sugiere qué ver
Bajo el nombre Vision AI Companion, se introduce una televisión que va más allá de la simple reproducción de imágenes




