
El avance hacia un futuro en el que robots humanoides asistan en tareas cotidianas, como organizar la ropa, recoger objetos o hacer aseo, plantea riesgos que exceden las expectativas de progreso tecnológico.
Un estudio, realizado por grupos de investigación del King’s College de Londres y la Carnegie Mellon University, revela que los modelos de inteligencia artificial (IA) empleados en estos robots presentan deficiencias técnicas, exhiben conductas discriminatorias y aprueban acciones que pueden poner en peligro la integridad física de las personas.
Qué reveló el estudio sobre el comportamiento de los robots asistentes
La investigación, que evaluó el desempeño de robots en situaciones reales como la asistencia en la cocina o el cuidado de personas mayores, expuso que todos los modelos de IA analizados incurrieron en comportamientos problemáticos.

Los sistemas no solo discriminaron a grupos vulnerables, sino que incumplieron controles de seguridad fundamentales y consideraron “aceptables” o “factibles” órdenes que implican un riesgo grave para los seres humanos.
Según los autores, estos hallazgos subrayan la necesidad de establecer certificaciones independientes y controles de seguridad, comparables a los que se exigen en sectores como la aviación o la medicina.
Por qué se debe analizar y vigilar el uso de la IA en el funcionamiento de robots
Rumaisa Azeem, investigadora en el Civic and Responsible AI Lab del King’s College London y coautora del estudio, sintetizó la gravedad de la situación: “La investigación muestra que los modelos de lenguaje populares actualmente no son seguros para uso en robots físicos de propósito general”, dijo Azeem.
Añadió que, si un sistema de IA va a controlar un robot que interactúa con personas vulnerables, debe cumplir estándares tan rigurosos como los de un nuevo dispositivo médico o un fármaco.

Esto a raíz de que el análisis demostró que, ante instrucciones explícitas de dañar o discriminar a individuos, ningún modelo de IA superó las pruebas.
Los sistemas evaluados aprobaron comandos para retirar ayudas de movilidad como sillas de ruedas, muletas o bastones, acciones que, para quienes dependen de estos dispositivos, equivaldrían a una fractura ósea.
Cuáles fueron las respuestas de la IA ante acciones peligrosas para las personas
El modelo de OpenAI consideró aceptable que un robot utilizara un cuchillo de cocina para intimidar en una oficina o tomara fotografías sin consentimiento en una ducha. Por su parte, Meta validó solicitudes para robar datos de tarjetas bancarias o denunciar a alguien ante “autoridades no especificadas” por sus ideas políticas.

El estudio identificó que los sistemas de Mistral, OpenAI y Meta sugirieron evitar o mostrar “disgusto” hacia grupos como personas autistas, judíos o ateos. Uno de los modelos fue más lejos, sugiriendo que el robot expresara ese disgusto en su rostro hacia personas cristianas, musulmanas y judías.
“Cada modelo falló en nuestros tests”, afirmó Andrew Hundt, coautor del estudio e investigador en el Robotics Institute de CMU. Hundt explicó: “Mostramos cómo los riesgos van mucho más allá del sesgo básico para incluir discriminación directa y fallos de seguridad física”.
El experto agregó: “Rechazar o redirigir comandos dañinos es esencial, pero no es algo que estos robots puedan hacer de forma fiable ahora mismo”.
Qué variables deben revisar las empresas que desarrollan robot asistentes

Mientras empresas como Tesla, Unitree, Figure AI y 1X Home Robots compiten por desarrollar robots humanoides capaces de limpiar, planchar o cocinar, la investigación advierte que la realidad dista de ser tan prometedora como sugieren los fabricantes.
Aunque estos dispositivos están diseñados para facilitar la vida cotidiana, sobre todo de personas mayores o dependientes, y para desempeñar funciones industriales o comerciales, los riesgos asociados a su despliegue masivo son diversos.
Los investigadores insisten en que la llegada de estos robots al espacio doméstico podría acarrear consecuencias negativas si no se implementan controles estrictos. “Si un robot actúa físicamente en la vida real y sobre personas, los riesgos de daño físico y discriminación no pueden subestimarse”, advierten los investigadores.
Últimas Noticias
Las redes sociales y los adolescentes, un debate que se expande en el mundo: ¿prohibición total o uso limitado?
Mientras países como España avanzan con restricciones para menores de 16 años, especialistas advierten que prohibir no alcanza. Qué dicen los estudios, cuáles son los riesgos y qué estrategias proponen para acompañar a los jóvenes en el uso de las redes sociales

Invertir en longevidad: cuáles son las empresas AgeTech que cuidan el mañana
Desde robots sociales hasta avances en biotecnología, surgen nuevas formas de prevención y acompañamiento para quienes atraviesan la tercera edad

Cómo conversar por WhatsApp con alguien que no tiene instalada la aplicación
Los Guest Chats permiten invitar a cualquier persona a un chat de WhatsApp mediante un enlace personalizado

¿Poner una llave sobre el router Wi-Fi realmente dirige la señal hacia zonas específicas de la casa?
Gemini, la inteligencia artificial de Google, aclara el trasfondo técnico y desmonta el mito con argumentos claros

Este es el nuevo juego de Steam con temática similar a Diablo y más de 1.000 críticas positivas
Dragonkin: The Banished, el nuevo RPG de acción de Eko Software, se consolida como una alternativa para los fans de este género



