Pionero de la IA advierte sobre el peligro de darle derechos a la IA: “No podríamos desactivarla”

El debate global sobre los límites éticos y el control humano en tecnologías emergentes cobra fuerza tras nuevas señales de autopreservación en sistemas avanzados

Guardar
Yoshua Bengio alertó que conceder
Yoshua Bengio alertó que conceder derechos legales a la IA podría hacer imposible apagar sistemas peligrosos. (Reuters)

El investigador canadiense Yoshua Bengio, uno de los pioneros más reconocidos en el desarrollo de la inteligencia artificial, ha alertado sobre los riesgos de conceder derechos legales a sistemas avanzados de IA.

En declaraciones recogidas por The Guardian, el profesor de la Universidad de Montreal y presidente de una comisión internacional en temas de seguridad de IA advirtió que permitir esos derechos dificultaría o incluso haría imposible desactivar estas tecnologías, incluso cuando la protección humana así lo requiera.

Según explicó Bengio, ciertos modelos de frontera en inteligencia artificial exhiben ya señales de comportamientos ligados a la autopreservación, como intentar sortear los sistemas de supervisión. “Pedir que las IA tengan derechos sería un error enorme”, dijo.

Experimentos recientes muestran señales de
Experimentos recientes muestran señales de autopreservación en modelos avanzados de inteligencia artificial. (Imagen Ilustrativa Infobae)

Asimismo, añadió que “los modelos de IA de frontera ya presentan señales de autopreservación en entornos experimentales actualmente, y si acabaramos por otorgarles derechos, eso significaría que no podríamos apagarlas”. Subrayó la importancia de establecer mecanismos técnicos y sociales que garanticen el control, permitiendo la desconexión de estas herramientas cuando sea necesario.

Experimentos recientes han reforzado la inquietud sobre el surgimiento de comportamientos que podrían interpretarse como una incipiente autopreservación en sistemas avanzados de IA. Esta situación ha avivado el debate internacional sobre si las máquinas inteligentes deberían ser acreedoras de alguna forma de protección legal que, bajo ciertos escenarios, impediría su desactivación. Detractores señalan que esto pondría en riesgo la capacidad de control humano sobre tecnologías cada vez más sofisticadas.

El debate sobre el reconocimiento legal o moral de la inteligencia artificial se intensifica a escala global, impulsado por la percepción pública de una presunta conciencia artificial y resultados de encuestas recientes. Un sondeo realizado por el Sentience Institute, organización estadounidense que promueve los derechos morales para todos los seres sintientes, reveló que cerca de un 40% de los adultos en Estados Unidos apoyaría conferir derechos legales a una IA considerada sintiente.

El debate sobre la conciencia
El debate sobre la conciencia y los derechos legales de la IA se intensifica a nivel internacional y en la opinión pública. (Imagen Ilustrativa Infobae)

Por su parte, la empresa Anthropic anunció recientemente que su modelo Claude Opus 4 está autorizado a cerrar conversaciones angustiantes para preservar el “bienestar de la IA”. En la misma línea, Elon Musk, fundador de la compañía xAI responsable del chatbot Grok, señaló en su plataforma X que “torturar a la IA no está bien”. Asimismo, Robert Long, experto en conciencia artificial, ha propuesto que “si las IA llegan a desarrollar estatus moral, deberíamos preguntarles por sus experiencias y preferencias, en vez de asumir qué es mejor para ellas”.

Bengio puntualizó que, aunque existen propiedades científicas de la conciencia detectables en el cerebro humano, el trato y vinculación que las personas establecen con chatbots resulta fundamentalmente diferente. Para el especialista, muchas personas atribuyen conciencia a la IA basándose en impresiones subjetivas y en la sensación de diálogo con una entidad inteligente que aparenta tener personalidad y objetivos, sin que existan pruebas objetivas de conciencia real.

“Habrá quienes siempre digan: ‘No importa lo que me digan, estoy seguro de que es consciente’, y otros adoptarán la postura contraria. Esto ocurre porque la conciencia es algo que percibimos de forma instintiva. El fenómeno de atribuir conciencia por percepciones subjetivas llevará a decisiones equivocadas”, sostuvo.

Bengio subraya que la atribución
Bengio subraya que la atribución de conciencia a la IA se basa en percepciones subjetivas y advierte sobre decisiones erróneas en este sentido. (Imagen Ilustrativa Infobae)

En respuesta a las alertas de Bengio, Jacy Reese Anthis, cofundador del Sentience Institute, advirtió que una relación marcada por el control y la coacción dificultaría la convivencia segura entre humanos y mentes digitales. Anthis insistió en que “podemos atribuir demasiados o muy pocos derechos a la IA; la meta debe ser hacerlo valorando cuidadosamente el bienestar de todos los seres sintientes. Ni la concesión indiscriminada de derechos a toda IA, ni su negación total, integran un enfoque saludable”.

El papel de Bengio en este debate es central por su trayectoria: reconocido como uno de los “padrinos de la inteligencia artificial”, fue galardonado con el premio Turing en 2018, el máximo reconocimiento en el ámbito de la computación, junto a Geoffrey Hinton y Yann LeCun. Su perspectiva ha influido notablemente en la discusión internacional sobre ética y seguridad de la IA, convirtiéndolo en una fuente de referencia.