El investigador canadiense Yoshua Bengio, uno de los pioneros más reconocidos en el desarrollo de la inteligencia artificial, ha alertado sobre los riesgos de conceder derechos legales a sistemas avanzados de IA.
En declaraciones recogidas por The Guardian, el profesor de la Universidad de Montreal y presidente de una comisión internacional en temas de seguridad de IA advirtió que permitir esos derechos dificultaría o incluso haría imposible desactivar estas tecnologías, incluso cuando la protección humana así lo requiera.
Según explicó Bengio, ciertos modelos de frontera en inteligencia artificial exhiben ya señales de comportamientos ligados a la autopreservación, como intentar sortear los sistemas de supervisión. “Pedir que las IA tengan derechos sería un error enorme”, dijo.
Asimismo, añadió que “los modelos de IA de frontera ya presentan señales de autopreservación en entornos experimentales actualmente, y si acabaramos por otorgarles derechos, eso significaría que no podríamos apagarlas”. Subrayó la importancia de establecer mecanismos técnicos y sociales que garanticen el control, permitiendo la desconexión de estas herramientas cuando sea necesario.
Experimentos recientes han reforzado la inquietud sobre el surgimiento de comportamientos que podrían interpretarse como una incipiente autopreservación en sistemas avanzados de IA. Esta situación ha avivado el debate internacional sobre si las máquinas inteligentes deberían ser acreedoras de alguna forma de protección legal que, bajo ciertos escenarios, impediría su desactivación. Detractores señalan que esto pondría en riesgo la capacidad de control humano sobre tecnologías cada vez más sofisticadas.
El debate sobre el reconocimiento legal o moral de la inteligencia artificial se intensifica a escala global, impulsado por la percepción pública de una presunta conciencia artificial y resultados de encuestas recientes. Un sondeo realizado por el Sentience Institute, organización estadounidense que promueve los derechos morales para todos los seres sintientes, reveló que cerca de un 40% de los adultos en Estados Unidos apoyaría conferir derechos legales a una IA considerada sintiente.
Por su parte, la empresa Anthropic anunció recientemente que su modelo Claude Opus 4 está autorizado a cerrar conversaciones angustiantes para preservar el “bienestar de la IA”. En la misma línea, Elon Musk, fundador de la compañía xAI responsable del chatbot Grok, señaló en su plataforma X que “torturar a la IA no está bien”. Asimismo, Robert Long, experto en conciencia artificial, ha propuesto que “si las IA llegan a desarrollar estatus moral, deberíamos preguntarles por sus experiencias y preferencias, en vez de asumir qué es mejor para ellas”.
Bengio puntualizó que, aunque existen propiedades científicas de la conciencia detectables en el cerebro humano, el trato y vinculación que las personas establecen con chatbots resulta fundamentalmente diferente. Para el especialista, muchas personas atribuyen conciencia a la IA basándose en impresiones subjetivas y en la sensación de diálogo con una entidad inteligente que aparenta tener personalidad y objetivos, sin que existan pruebas objetivas de conciencia real.
“Habrá quienes siempre digan: ‘No importa lo que me digan, estoy seguro de que es consciente’, y otros adoptarán la postura contraria. Esto ocurre porque la conciencia es algo que percibimos de forma instintiva. El fenómeno de atribuir conciencia por percepciones subjetivas llevará a decisiones equivocadas”, sostuvo.
En respuesta a las alertas de Bengio, Jacy Reese Anthis, cofundador del Sentience Institute, advirtió que una relación marcada por el control y la coacción dificultaría la convivencia segura entre humanos y mentes digitales. Anthis insistió en que “podemos atribuir demasiados o muy pocos derechos a la IA; la meta debe ser hacerlo valorando cuidadosamente el bienestar de todos los seres sintientes. Ni la concesión indiscriminada de derechos a toda IA, ni su negación total, integran un enfoque saludable”.
El papel de Bengio en este debate es central por su trayectoria: reconocido como uno de los “padrinos de la inteligencia artificial”, fue galardonado con el premio Turing en 2018, el máximo reconocimiento en el ámbito de la computación, junto a Geoffrey Hinton y Yann LeCun. Su perspectiva ha influido notablemente en la discusión internacional sobre ética y seguridad de la IA, convirtiéndolo en una fuente de referencia.