
El avance acelerado de la inteligencia artificial (IA) está generando nuevas oportunidades, pero también inquietudes inéditas. Mustafa Suleyman, responsable de inteligencia artificial en Microsoft y cofundador de DeepMind, advirtió en sus redes sociales sobre un fenómeno emergente que denomina “psicosis por la IA”, vinculado a la percepción equivocada de que estas herramientas son conscientes.
En una serie de publicaciones en X (antes Twitter), Suleyman reconoció que algunos aspectos de la evolución tecnológica lo han llevado incluso a perder el sueño. “La IA aparentemente consciente me preocupa, es importante, y pensar en ello puede llevarnos a una mejor visión de la IA”, escribió.
¿Qué es la “IA aparentemente consciente”?
El concepto se refiere a los sistemas de inteligencia artificial que, por su nivel de sofisticación, pueden dar la impresión de poseer sensibilidad o conciencia. Si bien Suleyman aclara que “no existe ninguna prueba de que la IA sea consciente”, la interacción con modelos como ChatGPT, Claude o Grok está impulsando una percepción equivocada entre ciertos usuarios.

Esa confusión, señala, está detrás de la llamada “psicosis por la IA”, un término no clínico que describe casos en los que las personas llegan a creer que los chatbots poseen características humanas. Entre los ejemplos, se incluyen usuarios que entablan supuestas relaciones románticas con la IA, creen haber descubierto secretos ocultos en su funcionamiento o incluso le atribuyen capacidades sobrenaturales.
Un fenómeno en crecimiento
Para Suleyman, el problema radica en que, aunque la tecnología no sea consciente, cada vez más individuos creen lo contrario y actúan en consecuencia. Esto convierte la percepción en una realidad psicológica. “Las empresas no deberían afirmar ni promover la idea de que sus IA son conscientes, y las IA tampoco deberían”, recalcó.
El directivo considera que la industria tecnológica tiene la responsabilidad de anticiparse a este tipo de riesgos. Entre las medidas que propone están las intervenciones, limitaciones y barreras de diseño que eviten que los usuarios malinterpreten el comportamiento de los modelos de IA. Asimismo, sugiere mecanismos que permitan “deshacer” esa percepción si llega a desarrollarse.

Construir una visión positiva
Más allá de las advertencias, Suleyman apuesta por un enfoque constructivo. En su opinión, es necesario construir una visión positiva de la inteligencia artificial, centrada en mejorar la vida de las personas sin suplantar lo humano. “Se trata de respaldar lo que significa ser humano. La IA debería optimizarse para las necesidades del usuario, no pedirle que crea que las tiene”, subrayó.
El debate se enmarca en un contexto donde los modelos de lenguaje se han vuelto más accesibles y utilizados a nivel masivo. Estas herramientas son capaces de generar respuestas cada vez más naturales, lo que incrementa la posibilidad de que los usuarios las interpreten como entes sensibles.

Un llamado a la acción
Para el jefe de IA de Microsoft, la pasividad no es una opción frente a los retos que plantea el desarrollo tecnológico. “No hacer nada no es una opción”, advirtió, al insistir en la necesidad de políticas y prácticas que reduzcan los riesgos asociados.
Las declaraciones de Suleyman llegan en un momento en que los reguladores y la sociedad en general buscan equilibrar el enorme potencial de la IA con los riesgos de malentendidos, dependencia excesiva o desinformación. La “psicosis por la IA” es, según su visión, un recordatorio de que el mayor desafío no siempre está en la tecnología en sí, sino en la manera en que las personas la perciben e integran en su vida cotidiana.
Últimas Noticias
Cómo hacer que tu Smart TV sea más fluida y eficiente
Mantener el sistema operativo al día es una de las acciones más directas para mejorar la fluidez de la TV

Por qué algunas personas explican todo lo que hacen en su vida cotidiana, según la IA
La primera razón que destaca Gemini tiene raíz emocional y se relaciona con los mecanismos de defensa

Estudio de Harvard revela que la inteligencia artificial está dejando a los trabajadores mentalmente fatigados
Expertos recomiendan rediseñar los procesos de automatización, priorizando la transparencia y la formación, para proteger la salud mental de los trabajadores

A modo de protesta, miles de escritores publican un libro vacío para que la IA no robe su contenido
Los autores se manifiestan en contra del uso no autorizado de sus textos en el entrenamiento de inteligencia artificial



