En Estados Unidos prohíben a la inteligencia artificial ejercer como terapeuta: nueva ley con multas y límites

Las nuevas normas en el estado de Illinois imponen advertencias, multas y ajustes operativos en aplicaciones que ofrecen algún tipo de servicio relacionado con el bienestar o la salud mental

Una nueva ley estatal impone multas y limita estrictamente la intervención de chatbots y plataformas de IA en salud mental, subrayando el rol insustituible de los profesionales humanos en la atención terapéutica - (Imagen Ilustrativa Infobae)

El avance de la inteligencia artificial (IA) en diferentes aspectos de la vida cotidiana ha generado numerosos beneficios, pero también ha levantado preguntas sobre sus límites, especialmente en áreas sensibles como la salud mental. En Estados Unidos, el estado de Illinois se coloca a la vanguardia de la regulación al aprobar una ley que prohíbe el uso de IA para brindar terapia psicológica, emitir diagnósticos de trastornos mentales o tomar decisiones terapéuticas.

El gobernador JB Pritzker firmó la Ley de Bienestar y Supervisión de Recursos Psicológicos (WOPR), la cual establece multas de hasta 10.000 dólares para quienes infrinjan la normativa.

Regulación pionera en Illinois: IA solo para asistencia, no para intervención psicológica directa - (Imagen ilustrativa Infobae)

La proliferación de chatbots y aplicaciones de IA que prometen apoyo emocional o soluciones terapéuticas ha despertado inquietudes en la comunidad profesional. Expertos y organizaciones como la Asociación Americana de Psicología han advertido que equiparar la intervención de la IA con la de un terapeuta humano puede poner en riesgo a usuarios, especialmente a quienes atraviesan situaciones delicadas o crisis personales.

Read more!

Qué aplicaciones serán restringidas en Estados Unidos

La nueva ley distingue entre aplicaciones orientadas al bienestar general, como las guías de meditación y mindfulness, que podrán seguir operando, y plataformas que buscan establecer una relación continua de apoyo psicológico o promoción de terapia guiada por IA, actividad que a partir de ahora queda prohibida en Illinois.

De esta forma, servicios que se promocionaban como “terapia 24/7” automatizada, como la app Ash Therapy, han pausado sus actividades en la región a la espera de la resolución estatal.

En los detalles de la regulación, la ley permite que profesionales de la salud mental empleen herramientas de IA en tareas administrativas, como la organización de citas o la gestión de notas clínicas.

Expertos resaltan los riesgos de usar a la IA como terapeuta o psicólogo - (Imagen Ilustrativa Infobae)

Sin embargo, enfatiza el rol insustituible del especialista humano para cualquier diagnóstico, tratamiento o intervención psicológica directa. La intención es evitar que algoritmos operen sin control en áreas donde se requiere criterio clínico y responsabilidad profesional.

Qué implicaciones tiene la prohibición en los modelos de IA

El impacto de esta normativa se visualiza en el mensaje de advertencia que ofrece Ash Therapy a los usuarios en Illinois: el servicio permanecerá inactivo hasta que se definan las reglas estatales. Por su parte, empresas como OpenAI han comenzado a ajustar el comportamiento de sus sistemas.

ChatGPT, por ejemplo, ahora sugiere pausas en sesiones largas y promueve respuestas destinadas a abrir alternativas en lugar de dar directivas simples, en respuesta a reportes sobre posibles efectos adversos tras interacciones profundas con asistentes virtuales.

La decisión de Illinois llega en un contexto de aceleración y expansión de la inteligencia artificial. Herramientas como ChatGPT, Gemini y otros sistemas conversacionales se insertan cada vez más en rutinas personales, académicas o profesionales. Sin embargo, existe una línea clara entre ofrecer información de carácter general y asumir un rol que corresponde a especialistas.

La regulación distingue entre bienestar general y apoyo psicológico profesional, mientras expertos advierten sobre los riesgos de equiparar el acompañamiento humano con algoritmos sin criterio clínico real - (Imagen Ilustrativa Infobae)

Las políticas de estas plataformas ya restringen respuestas en temas sensibles: no entregan información personal, no acceden a cuentas privadas ni generan contenido ofensivo, y rechazan cualquier intento de guiar sobre actividades ilegales o entregar diagnósticos médicos.

Esta regulación, además, responde al crecimiento del uso de asistentes virtuales entre jóvenes y adolescentes que recurren a ellos como consejeros disponibles en todo momento.

Aunque la comodidad y la inmediatez parecen ventajas, los expertos recuerdan que la IA está programada para complacer al usuario y no necesariamente brinda ayuda ética ni contención real ante situaciones de crisis. El riesgo radica en que los usuarios depositen confianza excesiva en sistemas que, por su naturaleza, carecen de empatía, experiencia vivida o capacidad para captar matices complejos de las emociones humanas.

Comprender las limitaciones de la inteligencia artificial permite sacar provecho de sus aportes sin caer en expectativas erróneas ni exponerse a peligros innecesarios. La nueva ley de Illinois marca un precedente en la discusión global sobre hasta dónde debe avanzar la IA en ámbitos de alto impacto social.

Read more!

Más Noticias

La inteligencia artificial reconfigura el cine y la TV: riesgos, empleos y una industria en transición

El avance tecnológico irrumpe en la dinámica audiovisual, señala un estudio de McKinsey que examina sus consecuencias sobre métodos de trabajo, perfiles laborales y distribución de valor en este ecosistema, al tiempo que expone interrogantes regulatorios y abre la puerta a escenarios innovadores para creadores y empresas del entretenimiento

Cómo Starlink de Elon Musk transforma la conectividad con internet satelital en escenarios de crisis

En muchos casos, Starlink es la única conexión disponible, dando a Elon Musk un control que influye en operaciones clave

¿Humanidades o ciencias?: la presidenta de Anthropic revela qué estudiar para conseguir trabajo en la era de la IA

Daniela Amodei sostiene que habilidades como el pensamiento crítico, la comprensión de la historia y la capacidad de entender la naturaleza humana serán esenciales para el desarrollo de la IA

El inesperado ranking de los regalos más vendidos en Colombia para los enamorados y cuánto gastan

Economía regional y tendencias sociales convergen en una ola de compras online que transforma tanto el comportamiento del consumidor como el futuro de los pequeños negocios en el país

¿Colapso en discos duros?: toda la producción de 2026 ya está vendida según el mayor fabricante

Western Digital, uno de los gigantes del sector, ha confirmado que las unidades fabricadas para 2027 y 2028 cuentan con acuerdos previos