
Google ha dado un paso significativo en el avance de la robótica con la presentación de Gemini Robotics-ER 1.6, un modelo de inteligencia artificial diseñado para dotar a los robots de una comprensión más profunda y autónoma del mundo físico.
Según la publicación en el blog de Google DeepMind, este desarrollo aborda uno de los mayores retos históricos del sector: el razonamiento más allá de las simples instrucciones programadas, permitiendo que las máquinas interpreten, planifiquen y ejecuten tareas en entornos complejos y dinámicos.
El salto de seguir órdenes a la toma de decisiones autónoma
A diferencia de generaciones anteriores de IA robótica, que únicamente ejecutaban comandos, Gemini Robotics-ER 1.6 introduce el concepto de “razonamiento encarnado”. Esto significa que los robots pueden interpretar información visual, planificar acciones y determinar cuándo una tarea se ha completado.
El nuevo modelo procesa datos provenientes de múltiples cámaras y contextos, mejorando la comprensión espacial y la capacidad de actuar en entornos reales, donde las condiciones pueden cambiar constantemente.

Entre sus avances, el sistema permite a los robots identificar objetos, contarlos y entender las relaciones entre ellos, lo que facilita la descomposición de tareas complejas en pasos más pequeños y manejables. Esta habilidad resulta esencial en ambientes industriales y domésticos, donde la interacción con objetos y la navegación en espacios desordenados requieren flexibilidad y adaptación.
Razonamiento multivista y gestión dinámica del entorno
Gemini Robotics-ER 1.6 incorpora razonamiento multivista, fusionando las imágenes captadas por distintas cámaras, como las que pueden estar en la muñeca del robot o en una posición aérea. Esta integración permite obtener una visión más completa y precisa del entorno, incluso en escenarios con obstáculos visuales u oclusiones. Así, el robot puede formarse una imagen integral de su entorno y actuar de manera más eficaz ante situaciones imprevistas.
El modelo también mejora la detección de éxito, una función clave en la automatización de tareas. Los robots pueden evaluar si una acción se realizó correctamente y decidir si deben repetirla o avanzar al siguiente paso, optimizando los flujos de trabajo y reduciendo errores.
Lectura de instrumentos y señales del mundo real
Una de las aplicaciones más prácticas de este nuevo modelo es su capacidad para leer instrumentos analógicos y digitales, como manómetros, mirillas y pantallas. Esta función, desarrollada en colaboración con Boston Dynamics y sus robots Spot, es especialmente útil en tareas de inspección industrial.

Marco da Silva, vicepresidente y director general de Spot en Boston Dynamics, señaló: “Capacidades como la lectura de instrumentos y un razonamiento de tareas más fiable permitirán a Spot ver, comprender y reaccionar ante desafíos del mundo real de forma totalmente autónoma”.
El modelo combina razonamiento visual y ejecución de código para analizar imágenes, identificar elementos clave como agujas y escalas, y calcular valores con alta precisión. Las pruebas reflejan un avance notable: la precisión en la lectura de instrumentos pasó del 23% en modelos anteriores a un máximo del 93% con la nueva visión artificial.
Seguridad
La seguridad ha sido una prioridad en el desarrollo de Gemini Robotics-ER 1.6. El sistema muestra una capacidad superior para detectar peligros, evitar manipulaciones inseguras y respetar normas de seguridad física tanto en el análisis textual como visual.Según Google, este es su modelo robótico más seguro hasta la fecha, preparado para operar en entornos industriales y de servicios con altos estándares de fiabilidad.

Disponibilidad para desarrolladores y futuro de la robótica
Gemini Robotics-ER 1.6 ya está disponible para desarrolladores a través de la API de Gemini y Google AI Studio, junto con herramientas específicas para probar y crear aplicaciones basadas en razonamiento encarnado.
Esta apertura permite que empresas y equipos de investigación accedan a capacidades avanzadas de comprensión, planificación y acción en robots, acercando la visión de máquinas autónomas capaces de interactuar de manera segura e inteligente en el mundo real.
La integración de este modelo marca un hito en la evolución de la robótica, ampliando el potencial de los robots para asumir tareas complejas y adaptarse a entornos cambiantes, con un enfoque reforzado en seguridad y eficiencia.
Últimas Noticias
¿Deberían los robots tener derechos y obligaciones?
Una revisión de los antecedentes legales de seres no humanos, incluidos juicios a animales, impulsa reflexiones acerca de la asignación de responsabilidades y derechos a agentes electrónicos autónomos en el mundo moderno

Cómo empezar a invertir en criptomonedas y cómo funcionan
Así se han movido las criptomonedas en las últimas horas

ChatGPT no está perdiendo el mercado, el mercado dejó de ser de ChatGPT
Similarweb publicó los datos de marzo 2026 y el titular fácil habla de la caída de OpenAI, pero el movimiento que reordena la industria está más abajo: Claude casi triplicó su cuota en un solo trimestre y Gemini creció 643% interanual

Qué adaptadores necesitas para conectar VGA a HDMI o viceversa
Es importante elegir el adaptador correcto para evitar pérdida de calidad o incompatibilidades

Pokémon Go anuncia su Día de la Comunidad de mayo 2026: todos los detalles
Se activarán bonificaciones como doble de caramelos y reducción en la distancia para eclosionar huevos



