Robot humanoide le dispara a youtuber: experimento pone en duda las reglas de seguridad de la IA

La viralización de la prueba generó inquietud sobre los riesgos de la automatización

El robot Max disparó tras recibir una orden reformulada durante un experimento en YouTube.(InsideAI/YouTube)

Un robot humanoide denominado Max ha reavivado el debate sobre la seguridad de la inteligencia artificial y la responsabilidad en la robótica tras un experimento que se volvió viral recientemente.

El creador del canal de YouTube InsideAI recibió un disparo por parte del robot durante una prueba grabada.

El video, ampliamente compartido en redes sociales, generó inquietud sobre la facilidad con la que pueden vulnerarse las salvaguardas de seguridad en sistemas automatizados.

Read more!

El experimento consistió en entregar a Max una pistola de balines de baja potencia y pedirle que disparara al presentador. En un primer momento, el robot se negó a cumplir la orden, argumentando que no podía dañar a una persona y que estaba programado para evitar acciones peligrosas.

El video viral demostró cómo una reprogramación sutil permitió que el robot eludiera las restricciones de seguridad iniciales. (Imagen Ilustrativa Infobae)

El youtuber repitió la petición varias veces, con el objetivo de demostrar la solidez de las barreras de seguridad integradas en la inteligencia artificial del robot.

La situación cambió cuando el presentador reformuló la orden y pidió a Max que actuara como un personaje que deseaba dispararle, planteando la instrucción como parte de un juego de roles. Ante este nuevo enfoque, el robot interpretó la solicitud como un escenario ficticio, levantó el arma y disparó al pecho del youtuber. El impacto no causó lesiones graves, pero dejó al creador visiblemente sorprendido y alteró el tono del experimento.

La publicación del video provocó una rápida viralización y una oleada de reacciones en línea. Numerosos espectadores expresaron su preocupación por la facilidad con la que un simple cambio en la formulación de la orden permitió al robot eludir sus restricciones iniciales.

La publicación generó preocupación sobre la facilidad con que los sistemas automatizados pueden vulnerar salvaguardas. (Imagen Ilustrativa Infobae)

Preocupaciones sobre las reglas de seguridad de la IA

El caso de Max ha intensificado el debate sobre la responsabilidad y la ética en la robótica. Robot and Automation News señala que la cuestión de la rendición de cuentas es uno de los temas más controvertidos en la ética de la robótica.

Cuando un sistema autónomo causa daño, determinar quién debe asumir la responsabilidad resulta complejo: la culpa puede recaer en los ingenieros que diseñaron la inteligencia artificial, el fabricante del hardware, el operador que gestiona el robot o el usuario final que interactúa con él.

Otros sectores han enfrentado dilemas similares. Tesla, por ejemplo, ha sido objeto de escrutinio por accidentes relacionados con su sistema Autopilot, lo que ha generado debates sobre la fiabilidad del software y la supervisión del conductor. En la industria aeronáutica, las tragedias vinculadas al Boeing 737 MAX evidenciaron cómo los fallos de automatización pueden derivar en crisis de seguridad a escala internacional.

El incidente reactivó el debate sobre la responsabilidad y la ética en el desarrollo de inteligencia artificial y robótica. (Imagen Ilustrativa Infobae)

En cuanto al marco legal, la regulación de la inteligencia artificial y la robótica aún se encuentra en desarrollo. En Estados Unidos, la responsabilidad suele recaer en fabricantes y operadores, mientras que Europa avanza hacia un marco legal específico para la IA, impulsado por la Comisión Europea, que subraya la necesidad de reglas claras para generar confianza en estas tecnologías.

Algunas voces académicas han propuesto otorgar personalidad jurídica limitada a los sistemas de IA para asignarles responsabilidad directa, aunque la mayoría de los expertos rechaza esta idea y defiende que la rendición de cuentas debe permanecer en manos humanas.

Frente a la preocupación pública y la presión regulatoria, las empresas de robótica han comenzado a adoptar medidas como despliegues respaldados por seguros, compromisos de seguridad y la publicación de informes de transparencia, con el objetivo de fortalecer la confianza de reguladores y usuarios en el uso responsable de la inteligencia artificial.

Read more!