
La inteligencia artificial da un nuevo paso hacia la automatización cotidiana. Google comenzó a probar una función que transforma a su asistente Gemini en un agente inteligente capaz de ejecutar tareas complejas de forma autónoma desde el celular, sin que el usuario tenga que intervenir de manera constante.
Esta herramienta ya puede encargarse de acciones como volver a pedir comida, coordinar un viaje en transporte compartido o completar procesos que requieren varios pasos, todo en segundo plano.
La novedad marca una evolución respecto a los asistentes tradicionales, que hasta ahora respondían a comandos directos o realizaban acciones simples. En esta nueva etapa, la IA puede planificar una tarea, dividirla en subtareas, ejecutarlas en distintas aplicaciones y finalizarlas sin interrumpir el uso normal del dispositivo.
Según explicó la compañía, el sistema está diseñado para operar de forma “eficiente y discreta”, permitiendo que el usuario continúe utilizando su celular mientras la IA gestiona el proceso solicitado. La interacción pasa de ser inmediata y manual a convertirse en una delegación controlada: el usuario define el objetivo y el agente se encarga del resto.
Cómo funcionan los nuevos agentes en el celular
La función se encuentra actualmente en fase de pruebas y se basa en la capacidad de la IA para comprender objetivos más amplios, no solo instrucciones específicas. Por ejemplo, en lugar de ordenar “abre una app y pide un taxi”, el usuario puede solicitar algo más general como “organiza mi regreso a casa”, dejando que el sistema coordine los pasos necesarios. Esto implica que Gemini puede:
- Interpretar la intención del usuario.
- Planificar la secuencia de acciones necesarias.
- Ejecutar procesos dentro de distintas aplicaciones compatibles.
- Completar la tarea sin supervisión continua.
A diferencia de la automatización tradicional, que depende de reglas predefinidas, el agente utiliza modelos de IA para adaptarse al contexto y tomar decisiones intermedias durante la ejecución.

Supervisión y control del usuario
Pese al alto grado de autonomía, el sistema no funciona sin límites. Google indicó que los usuarios podrán seguir el progreso mediante notificaciones y tendrán la opción de intervenir, pausar o cancelar la tarea en cualquier momento.
El diseño busca equilibrar automatización y control humano, una de las principales preocupaciones en el desarrollo de agentes inteligentes capaces de ejecutar acciones reales en nombre de una persona.
Seguridad y acceso restringido
Uno de los puntos clave del anuncio es el enfoque en la seguridad. Gemini no tiene acceso total al dispositivo, sino que opera únicamente sobre un conjunto limitado de aplicaciones autorizadas.
Además, las apps necesarias para completar una tarea se ejecutan dentro de una “ventana virtual segura”, un entorno aislado que evita que la IA interactúe con otras funciones del teléfono o acceda a información no relacionada con la acción solicitada.

Este modelo pretende reducir riesgos en un momento en que la industria tecnológica explora asistentes cada vez más autónomos, capaces de manejar datos sensibles o realizar transacciones digitales.
Primeros usos y disponibilidad
En esta fase inicial, la herramienta solo funciona con aplicaciones vinculadas a servicios de comida, supermercados y transporte compartido, categorías elegidas por su uso frecuente y estructura predecible.
La prueba se lanzó de forma limitada en Estados Unidos y Corea del Sur, y está disponible únicamente en dispositivos recientes como los Samsung Galaxy S26 y Google Pixel 10.

Un cambio en la relación con los asistentes digitales
La apuesta refleja un giro más amplio en la evolución de la inteligencia artificial aplicada al consumo. Mientras los asistentes actuales funcionan como herramientas reactivas —responden cuando el usuario lo pide—, los llamados “agentes” buscan convertirse en sistemas capaces de ejecutar objetivos completos.
Este enfoque acerca la IA a escenarios donde actúa como intermediaria entre el usuario y los servicios digitales, coordinando acciones que antes requerían múltiples interacciones manuales.
Aunque todavía está en etapa experimental, el desarrollo anticipa una tendencia creciente: teléfonos que no solo responden preguntas, sino que gestionan tareas cotidianas de forma autónoma. La adopción masiva dependerá de factores como la fiabilidad, la seguridad y la confianza del usuario en delegar actividades diarias a sistemas inteligentes.
Últimas Noticias
Empresa usa IA para ‘obligar’ a sus empleados a decir “gracias” y “por favor” a los clientes
A través de un chatbot, empleados son vigilados y pueden pedir ayuda sobre el inventario que hay en la tienda

Amazon invierte USD 50.000 millones en OpenAI: revolución histórica de la nube
El acuerdo contempla una inversión inicial de USD 15 mil millones, seguida de USD 35 mil millones adicionales, sujetos al cumplimiento de determinadas metas
Google presenta Nano Banana 2: más velocidad, más precisión y mayor autonomía
Google lanza una nueva versión de su modelo generativo con foco en la rapidez de respuesta y la creación visual en tiempo real

iPhone 17, Pro y Pro Max: todas las diferencias entre modelos y precios 2026
La diferencia más relevante entre estos modelos está en el procesador: el iPhone 17 estándar utiliza el chip A19, mientras que las versiones Pro y Pro Max incluyen el A19 Pro




