
Durante años, las advertencias sobre la adicción tecnológica se centraron en las redes sociales, los videojuegos y los teléfonos inteligentes. Pero ahora, un nuevo tipo de interacción digital empieza a despertar señales de alerta, y es precisamente la que se da entre humanos y modelos de lenguaje como ChatGPT.
Según una investigación conjunta del MIT Media Lab y OpenAI, utilizar intensivamente esta inteligencia artificial podría afectar el bienestar emocional y social de ciertos usuarios, en especial de aquellos más comprometidos con el sistema.

Uusuarios podría crear con ChatGPT vínculos no saludables
ChatGPT se volvió una herramienta habitual para millones de personas. Está presente en oficinas, escuelas, redacciones, consultas legales y hasta en conversaciones personales durante el tiempo libre.
Su habilidad para mantener diálogos fluidos y ofrecer respuestas contextualizadas lo ha convertido en una suerte de asistente digital confiable. Pero esa misma capacidad para simular compañía, empatía o entendimiento, también puede generar vínculos que no siempre son saludables.
Quiénes son las personas más afectadas con la IA

La investigación, titulada ‘Cómo los chatbots de IA afectan nuestro bienestar social y emocional: nuevos hallazgos de investigación’, analizó a más de 5.000 personas y detectó indicios de una relación problemática en un segmento específico de usuarios.
Los investigadores identificaron comportamientos compatibles con una posible adicción digital, como “preocupación, síntomas de abstinencia, pérdida de control y modificación del estado de ánimo”.
Estos indicios no eran generalizados, pero sí se presentaban con claridad en los llamados “usuarios avanzados”, definidos como personas que pasan largos períodos interactuando con ChatGPT, muchas veces varias veces al día y en múltiples contextos.
Cuando no representa un peligro el uso de ChatGPT

Este grupo no representa al grueso de los usuarios. De hecho, la gran mayoría utiliza ChatGPT de manera esporádica, para resolver dudas puntuales o acelerar tareas cotidianas.
Es decir, no se trata de un riesgo extendido, pero sí de una advertencia sobre cómo ciertas dinámicas de uso intensivo pueden derivar en patrones similares a los que se observan en otros tipos de dependencia tecnológica.
El riesgo emocional del Modo de Voz Avanzado
Uno de los aspectos más llamativos del estudio fue el rol del Modo de Voz Avanzado, una funcionalidad que permite mantener conversaciones en tiempo real con la inteligencia artificial.
Dentro de los usuarios que accedieron a esta herramienta, se detectó una mayor propensión a establecer un vínculo afectivo con el modelo.
Aunque los investigadores aclararon que se trata de una fracción reducida del total de usuarios, consideraron significativo el hecho de que algunas personas pudieran llegar a atribuir cualidades humanas a la IA, al punto de sentirse acompañadas o emocionalmente comprendidas por ella.
Esto plantea preguntas difíciles: ¿Qué ocurre cuando un sistema automatizado empieza a reemplazar interacciones humanas? ¿Hasta qué punto una conversación con una máquina puede satisfacer necesidades afectivas? ¿Y cuál es el límite entre una herramienta útil y una presencia constante que interfiere con la vida cotidiana?
Dependencia emocional por el uso de la IA
La investigación del MIT Media Lab y OpenAI no ofrece respuestas definitivas, pero deja en claro que el uso intensivo de herramientas de IA debe evaluarse no solo desde la eficiencia o la innovación tecnológica, también desde el impacto emocional y psicológico.
En palabras de los propios autores del estudio, el fenómeno merece seguimiento y análisis más profundos, ya que “el grupo que mostró signos de dependencia era tan reducido que sería complejo estudiar su impacto a gran escala”, aunque no por ello menos relevante.
ChatGPT no fue diseñado como sustituto emocional, pero su estructura conversacional y su disponibilidad constante lo colocan en una posición singular.
A medida que más personas interactúan con modelos como este, los investigadores sugieren prestar atención no solo a lo que hacen, mas bien a cómo nos hacen sentir.
Una herramienta útil puede convertirse en una compañía persistente, y esa compañía, si no se administra con cuidado, podría ocupar espacios que antes estaban reservados a vínculos humanos.
Últimas Noticias
Descubre cómo personalizar las fotos de tus contactos en llamadas con los nuevos Pixel 10a
Google busca que esta característica no sea exclusiva, sino parte integral de su ecosistema móvil

Investigadores proponen usar ‘imanes invisibles’ para hacer computadoras 1.000 veces más rápidas
El control preciso de estos materiales permitirá desarrollar prototipos revolucionarios con bajo consumo energético

Meta queda en evidencia: su propio consejo advierte fallos en la detección de deepfakes en conflictos
El Oversight Board recomendó que la compañía debe mejorar la manera en que muestra el contenido generado por IA y ofrecer información detallada sobre el origen de ese material
WhatsApp permitirá a los padres administrar las cuentas de sus hijos menores de 13 años
Los padres recibirán notificaciones sobre cambios clave en la cuenta del menor y podrán aprobar solicitudes de grupo

Tu teléfono no enciende y la pantalla queda negra: así puedes intentar recuperarlo rápidamente
Expertos recomiendan revisar primero el cargador, el cable y el puerto de carga



