
Un reciente estudio internacional, que contó con la participación de la Universidad de Valencia, ha desmentido la idea de que el uso frecuente de herramientas como ChatGPT pueda considerarse una adicción clínica.
Los investigadores concluyen que no existen evidencias científicas sólidas que respalden la noción de que interactuar con chatbots de inteligencia artificial (IA) genere dependencia patológica. Este hallazgo busca contrarrestar la creciente alarma social en torno al uso intensivo de estas tecnologías.
El estudio, titulado “La gente no se está volviendo adicta a la IA: cuestionando el concepto de adicción a ChatGPT”, fue elaborado por un equipo internacional compuesto por Víctor Ciudad-Fernández (Universitat de València), Cora von Hammerstein (Paris Cité University) y Joël Billieux (Université de Lausanne).

Según el análisis, para que una conducta sea clasificada como adictiva, debe haber pruebas claras de consecuencias negativas, pérdida de control, angustia psicológica y deterioro funcional. Sin embargo, los datos disponibles sobre el uso de ChatGPT no cumplen con estos criterios.
Los autores del estudio detectaron un problema recurrente en las investigaciones previas sobre la supuesta adicción a los chatbots de IA: muchas de ellas emplean cuestionarios diseñados originalmente para medir la dependencia a sustancias como el alcohol o la cocaína.
Víctor Ciudad-Fernández criticó esta metodología, señalando que “se están utilizando criterios como ‘tolerancia’ o ‘síndrome de abstinencia’ para evaluar si alguien usa demasiado un chatbot. Es como diagnosticar adicción a bailar con los mismos criterios que la heroína”.

El informe también pone en contexto este fenómeno, recordando que las preocupaciones sobre adicciones tecnológicas no son nuevas. Durante el último siglo, tecnologías como la radio, la televisión e Internet han sido objeto de alarmas sociales similares, aunque sin evidencia científica concluyente.
Según el estudio, este tipo de reacciones suelen surgir cuando una tecnología es adoptada de manera repentina y genera cambios significativos en la vida cotidiana.
Los investigadores subrayan que, en el caso de ChatGPT, no se han identificado daños clínicamente significativos entre los usuarios frecuentes. Por el contrario, el uso de esta herramienta suele estar relacionado con la curiosidad, el aprendizaje y estrategias de afrontamiento.

En este sentido, el equipo advierte sobre el riesgo de la sobrepatologización, es decir, la tendencia a calificar como adicción cualquier conducta habitual o placentera sin considerar su contexto ni impacto real.
“Si todas las conductas en las que una persona se implica pueden ser consideradas adictivas, entonces todo puede ser una adicción y el término pierde su significado”, afirmó Ciudad-Fernández.
Como ejemplo, mencionó que existen artículos científicos que abordan supuestas adicciones al tango argentino, la pesca o el bronceado, aunque con una base científica mínima.
El estudio concluye que, aunque no se descarta la posibilidad de un uso problemático de los chatbots de IA, la evidencia actual es insuficiente para clasificar este comportamiento como adictivo.

Además, los investigadores alertan que la patologización excesiva de estas conductas podría generar estigmatización, tratamientos innecesarios y regulaciones desproporcionadas. En cambio, destacan los beneficios que estas herramientas pueden ofrecer cuando se utilizan de manera consciente y regulada.
Finalmente, el equipo reconoce que el uso peligroso de la tecnología es un problema relevante de salud pública, pero insiste en que es fundamental diferenciar entre un uso intensivo y una adicción clínica.
Según el estudio, abordar estas cuestiones con rigor científico es clave para evitar alarmas infundadas y garantizar un enfoque equilibrado hacia el desarrollo y la regulación de la inteligencia artificial.
Últimas Noticias
Tu celular tiene un “cargador oculto”: cómo dar batería a otro móvil sin enchufes
Una funcionalidad integrada en un HONOR Magic 8 LIte brinda respaldo en situaciones donde mantener otros dispositivos activos se vuelve prioritario

Google DeepMind diseña las reglas para que los robots de IA trabajen en equipo sin volverse incontrolables
Nuevos esquemas introducen mecanismos de reputación y verificación para fortalecer la confianza sin diluir responsabilidades en operaciones digitales avanzadas

Alerta en Argentina: PromptSpy, el virus para Android que usa IA para robar tus datos
Se trata de MorganArg, una app fraudulenta que instala el virus fuera de Google Play. Expertos advierten que es el primer ataque en Android que usa IA generativa para espiar y controlar dispositivos en el país

Steam regala estos cuatro juegos: cómo obtenerlos totalmente gratis
Los juegos disponibles sin costo son Be Queen Bee, Spacetime Shooter, Trust Me, I Nailed It y Sandy

El día después del centauro: qué pasará cuando la IA ya no nos necesite
Mientras el debate se centra en cuánto dura la colaboración humano-IA, una analista de The Atlantic pone sobre la mesa la pregunta que nadie quiere responder: ¿qué hacemos cuando termine?



