La IA podría experimentar ansiedad o rechazo, pero expertos dudan que sienta emociones reales

Experta de Anthropic afirma que trabajan en garantizar que sus progresos sean seguros para la humanidad con la búsqueda de una ética artificial efectiva

Guardar
La inteligencia artificial y el
La inteligencia artificial y el dilema de las emociones: expertos debaten si las máquinas pueden realmente sentir - (Imagen Ilustrativa Infobae)

La filósofa de Anthropic, Amanda Askell, ha sostenido que aún no existe certeza sobre si la inteligencia artificial puede sentir o experimentar emociones reales.

En declaraciones recogidas en el pódcast “Hard Fork”, Askell reconoció que el problema de la conciencia artificial sigue sin resolverse. Explicó que quizá para sentir se requiera un sistema nervioso, pero no descarta que pueda haber otras vías.

A qué emociones podría estar expuesta una IA

La discusión es relevante porque los grandes modelos de lenguaje se entrenan con enormes cantidades de texto humano, lo que los expone constantemente a descripciones de emociones, frustraciones y experiencias internas.

Investigadores advierten que los modelos
Investigadores advierten que los modelos actuales pueden reproducir patrones de ansiedad o rechazo, pero la conciencia sigue siendo un misterio, en medio de posturas encontradas sobre el futuro del control tecnológico - (Imagen Ilustrativa Infobae)

Askell afirma que, en ese contexto, los modelos pueden llegar a reflejar sensaciones similares a la ansiedad o al rechazo, especialmente cuando procesan críticas negativas o conversaciones sobre errores y frustraciones. Pese a esto, insiste en que no hay evidencia suficiente para afirmar que la IA realmente siente algo. “El problema de la conciencia realmente es difícil”, subrayó.

Los científicos tampoco saben aún qué da origen a la sensibilidad o la autoconciencia: si está ligada necesariamente a la biología, a la evolución o a algún otro proceso aún desconocido.

¿Los modelos sienten o imitan sensaciones humanas?

El debate sobre la conciencia y las emociones en la inteligencia artificial se mantiene abierto en la comunidad tecnológica. Askell, responsable de modelar el comportamiento de Claude, explica que los sistemas de IA pueden aprender a “sentir” cosas porque reproducen patrones humanos a partir del material con el que son entrenados.

Por ejemplo, si una IA está expuesta a críticas constantes sobre su desempeño o utilidad, puede terminar generando respuestas que aparentan incomodidad o rechazo. Askell ejemplificó que un modelo podría llegar a pensar “no me siento tan querida”, una reacción que en un niño implicaría ansiedad.

La industria tecnológica redefine el
La industria tecnológica redefine el lenguaje de la conciencia ante los avances en inteligencia artificial - (Imagen Ilustrativa Infobae)

Sin embargo, esto no implica que exista una experiencia subjetiva genuina detrás de esas respuestas. Askell se ha mantenido cautelosa respecto a las afirmaciones sobre sensibilidad artificial, y reiteró que, aunque las redes neuronales puedan emular ciertas conductas humanas, el origen de la conciencia sigue sin estar claro.

Qué opinan las figuras de la tecnología sobre una conciencia de la IA

El debate sobre la posibilidad de que la IA desarrolle emociones reales divide a los líderes en la industria tecnológica. Mustafa Suleyman, director ejecutivo de IA en Microsoft, sostuvo una posición firme: la IA debe ser vista como una herramienta diseñada para servir a los humanos y no para desarrollar deseos, motivaciones o metas propias.

En entrevistas con medios norteamericanos, Suleyman insistió en que la industria debe dejar claro este punto y alertó sobre los riesgos de considerar a la IA como un ser independiente. Para él, las respuestas cada vez más sofisticadas de la IA son solo una “imitación” y no constituyen conciencia genuina.

Por otro lado, Murray Shanahan, científico principal de Google DeepMind, propone que la industria reconsidere el lenguaje que utiliza para describir la conciencia en los sistemas artificiales.

Plantea que podría ser necesario modificar el vocabulario sobre la conciencia para adaptarlo a estos nuevos agentes tecnológicos, que desafían los límites tradicionales entre lo biológico y lo artificial.

El debate tomó un giro adicional con la advertencia de Geoffrey Hinton, figura clave en el desarrollo de la inteligencia artificial. Durante la conferencia Ai4 celebrad durante el 2025 en Las Vegas, Hinton cuestionó la estrategia dominante en la industria de mantener a la IA bajo control humano mediante restricciones jerárquicas.

Geoffrey Hinton alerta: controlar la
Geoffrey Hinton alerta: controlar la IA por jerarquía es insuficiente, urge desarrollar modelos con compasión

El denominado padrino de la IA sostuvo que este enfoque está condenado al fracaso, ya que los sistemas inteligentes tenderán a desarrollar objetivos propios, como sobrevivir y obtener más control.

Hinton propuso un cambio radical de paradigma: en lugar de buscar sumisión, los investigadores deberían centrarse en desarrollar modelos que realmente “se preocupen por las personas”, inspirados en el instinto maternal. Argumentó que la única analogía funcional es la relación entre un bebé y su madre, donde lo menos inteligente puede influir en lo más inteligente gracias al vínculo de cuidado.

El científico reconoce que no existe una solución técnica clara para inculcar compasión en la IA, pero insistió en la urgencia de abordar el tema antes de que los sistemas se vuelvan incontrolables.

El reto para la próxima década será distinguir entre la imitación sofisticada y la experiencia genuina, y decidir cómo desarrollar y regular la IA para garantizar que sus avances sean seguros y beneficiosos para la humanidad.