
Un reciente estudio internacional, que contó con la participación de la Universidad de Valencia, ha desmentido la idea de que el uso frecuente de herramientas como ChatGPT pueda considerarse una adicción clínica.
Los investigadores concluyen que no existen evidencias científicas sólidas que respalden la noción de que interactuar con chatbots de inteligencia artificial (IA) genere dependencia patológica. Este hallazgo busca contrarrestar la creciente alarma social en torno al uso intensivo de estas tecnologías.
El estudio, titulado “La gente no se está volviendo adicta a la IA: cuestionando el concepto de adicción a ChatGPT”, fue elaborado por un equipo internacional compuesto por Víctor Ciudad-Fernández (Universitat de València), Cora von Hammerstein (Paris Cité University) y Joël Billieux (Université de Lausanne).

Según el análisis, para que una conducta sea clasificada como adictiva, debe haber pruebas claras de consecuencias negativas, pérdida de control, angustia psicológica y deterioro funcional. Sin embargo, los datos disponibles sobre el uso de ChatGPT no cumplen con estos criterios.
Los autores del estudio detectaron un problema recurrente en las investigaciones previas sobre la supuesta adicción a los chatbots de IA: muchas de ellas emplean cuestionarios diseñados originalmente para medir la dependencia a sustancias como el alcohol o la cocaína.
Víctor Ciudad-Fernández criticó esta metodología, señalando que “se están utilizando criterios como ‘tolerancia’ o ‘síndrome de abstinencia’ para evaluar si alguien usa demasiado un chatbot. Es como diagnosticar adicción a bailar con los mismos criterios que la heroína”.

El informe también pone en contexto este fenómeno, recordando que las preocupaciones sobre adicciones tecnológicas no son nuevas. Durante el último siglo, tecnologías como la radio, la televisión e Internet han sido objeto de alarmas sociales similares, aunque sin evidencia científica concluyente.
Según el estudio, este tipo de reacciones suelen surgir cuando una tecnología es adoptada de manera repentina y genera cambios significativos en la vida cotidiana.
Los investigadores subrayan que, en el caso de ChatGPT, no se han identificado daños clínicamente significativos entre los usuarios frecuentes. Por el contrario, el uso de esta herramienta suele estar relacionado con la curiosidad, el aprendizaje y estrategias de afrontamiento.

En este sentido, el equipo advierte sobre el riesgo de la sobrepatologización, es decir, la tendencia a calificar como adicción cualquier conducta habitual o placentera sin considerar su contexto ni impacto real.
“Si todas las conductas en las que una persona se implica pueden ser consideradas adictivas, entonces todo puede ser una adicción y el término pierde su significado”, afirmó Ciudad-Fernández.
Como ejemplo, mencionó que existen artículos científicos que abordan supuestas adicciones al tango argentino, la pesca o el bronceado, aunque con una base científica mínima.
El estudio concluye que, aunque no se descarta la posibilidad de un uso problemático de los chatbots de IA, la evidencia actual es insuficiente para clasificar este comportamiento como adictivo.

Además, los investigadores alertan que la patologización excesiva de estas conductas podría generar estigmatización, tratamientos innecesarios y regulaciones desproporcionadas. En cambio, destacan los beneficios que estas herramientas pueden ofrecer cuando se utilizan de manera consciente y regulada.
Finalmente, el equipo reconoce que el uso peligroso de la tecnología es un problema relevante de salud pública, pero insiste en que es fundamental diferenciar entre un uso intensivo y una adicción clínica.
Según el estudio, abordar estas cuestiones con rigor científico es clave para evitar alarmas infundadas y garantizar un enfoque equilibrado hacia el desarrollo y la regulación de la inteligencia artificial.
Últimas Noticias
Linda Yaccarino deja su puesto como CEO de X: quién es, cuánto duró en el cargo y cómo es su relación con Elon Musk
La ejecutiva agradeció a Elon Musk por haberle confiado el cargo, y él respondió expresando su gratitud por sus contribuciones

La estafa más fácil de creer y más difícil de detectar, según la IA y expertos
Con solo un clic, millones de usuarios pueden ser víctimas de fraudes diseñados a la medida. La clave está en desconfiar, verificar y no actuar por impulso

El proyecto que pondría fin a los códigos QR: escanear tinta infrarroja
Este sistema permite imprimir etiquetas digitales invisibles en objetos tridimensionales sin alterar su apariencia

Grok, la IA de Elon Musk, modificará sus respuestas tras enfrentar críticas por discurso de odio
Tras recibir denuncias en distintos países, la empresa anunció que ajustó el comportamiento del chatbot frente a temas sensibles

Estrategia de cinco pasos creada en Harvard para no depender del celular y las redes sociales
Es un problema que afecta en su mayoría a adolescentes y jóvenes, que usan sus dispositivos como distractores y no como herramientas útiles que ayuden a su bienestar
