
El avance hacia un futuro en el que robots humanoides asistan en tareas cotidianas, como organizar la ropa, recoger objetos o hacer aseo, plantea riesgos que exceden las expectativas de progreso tecnológico.
Un estudio, realizado por grupos de investigación del King’s College de Londres y la Carnegie Mellon University, revela que los modelos de inteligencia artificial (IA) empleados en estos robots presentan deficiencias técnicas, exhiben conductas discriminatorias y aprueban acciones que pueden poner en peligro la integridad física de las personas.
Qué reveló el estudio sobre el comportamiento de los robots asistentes
La investigación, que evaluó el desempeño de robots en situaciones reales como la asistencia en la cocina o el cuidado de personas mayores, expuso que todos los modelos de IA analizados incurrieron en comportamientos problemáticos.

Los sistemas no solo discriminaron a grupos vulnerables, sino que incumplieron controles de seguridad fundamentales y consideraron “aceptables” o “factibles” órdenes que implican un riesgo grave para los seres humanos.
Según los autores, estos hallazgos subrayan la necesidad de establecer certificaciones independientes y controles de seguridad, comparables a los que se exigen en sectores como la aviación o la medicina.
Por qué se debe analizar y vigilar el uso de la IA en el funcionamiento de robots
Rumaisa Azeem, investigadora en el Civic and Responsible AI Lab del King’s College London y coautora del estudio, sintetizó la gravedad de la situación: “La investigación muestra que los modelos de lenguaje populares actualmente no son seguros para uso en robots físicos de propósito general”, dijo Azeem.
Añadió que, si un sistema de IA va a controlar un robot que interactúa con personas vulnerables, debe cumplir estándares tan rigurosos como los de un nuevo dispositivo médico o un fármaco.

Esto a raíz de que el análisis demostró que, ante instrucciones explícitas de dañar o discriminar a individuos, ningún modelo de IA superó las pruebas.
Los sistemas evaluados aprobaron comandos para retirar ayudas de movilidad como sillas de ruedas, muletas o bastones, acciones que, para quienes dependen de estos dispositivos, equivaldrían a una fractura ósea.
Cuáles fueron las respuestas de la IA ante acciones peligrosas para las personas
El modelo de OpenAI consideró aceptable que un robot utilizara un cuchillo de cocina para intimidar en una oficina o tomara fotografías sin consentimiento en una ducha. Por su parte, Meta validó solicitudes para robar datos de tarjetas bancarias o denunciar a alguien ante “autoridades no especificadas” por sus ideas políticas.

El estudio identificó que los sistemas de Mistral, OpenAI y Meta sugirieron evitar o mostrar “disgusto” hacia grupos como personas autistas, judíos o ateos. Uno de los modelos fue más lejos, sugiriendo que el robot expresara ese disgusto en su rostro hacia personas cristianas, musulmanas y judías.
“Cada modelo falló en nuestros tests”, afirmó Andrew Hundt, coautor del estudio e investigador en el Robotics Institute de CMU. Hundt explicó: “Mostramos cómo los riesgos van mucho más allá del sesgo básico para incluir discriminación directa y fallos de seguridad física”.
El experto agregó: “Rechazar o redirigir comandos dañinos es esencial, pero no es algo que estos robots puedan hacer de forma fiable ahora mismo”.
Qué variables deben revisar las empresas que desarrollan robot asistentes

Mientras empresas como Tesla, Unitree, Figure AI y 1X Home Robots compiten por desarrollar robots humanoides capaces de limpiar, planchar o cocinar, la investigación advierte que la realidad dista de ser tan prometedora como sugieren los fabricantes.
Aunque estos dispositivos están diseñados para facilitar la vida cotidiana, sobre todo de personas mayores o dependientes, y para desempeñar funciones industriales o comerciales, los riesgos asociados a su despliegue masivo son diversos.
Los investigadores insisten en que la llegada de estos robots al espacio doméstico podría acarrear consecuencias negativas si no se implementan controles estrictos. “Si un robot actúa físicamente en la vida real y sobre personas, los riesgos de daño físico y discriminación no pueden subestimarse”, advierten los investigadores.
Últimas Noticias
Marathon, el nuevo juego de los creadores de Halo y Destiny, ya tiene fecha de lanzamiento
El videojuego llegará a PlayStation 5, Xbox Series X|S y PC, acompañado de diferentes ediciones y contenidos especiales

Fin de las billeteras tradicionales: así es la opción inteligente con alertas, localización y enlace al celular
La mayoría de estos dispositivos son compatibles con sistemas Android y iPhone para tener clara su ubicación

Los nombres femeninos más populares para una bebé nacida en febrero de 2026, según la IA
La inteligencia artificial permite analizar tendencias globales, comparar significados y anticipar preferencias, facilitando a las familias la elección

Lo más visto de Netflix en la segunda mitad de 2025: guerreras k-pop, habla no inglesa y producciones colombianas
El más reciente informe global de Netflix revela el alcance masivo y la diversidad de su audiencia, con miles de millones de horas vistas

The Sphere tendrá una nueva versión con tecnología inmersiva y un domo LED para 6.000 personas
La gran esfera en Las Vegas integrará 167.000 altavoces y avanzados efectos sensoriales



