California establece nueva ley para proteger a menores de los riesgos de los chatbots de inteligencia artificial

La legislación, firmada por Gavin Newsom, obliga a las empresas a advertir constantemente a menores cuando interactúan con inteligencia artificial y atender potenciales crisis de salud mental mediante servicios especializados

Guardar
Joven adolescente utiliza computadora con IA para hacer la tarea - (Imagen Ilustrativa Infobae)
Una nueva ley en California exige que las plataformas digitales notifiquen cada tres horas a los menores que interactúan con un chatbot y no con una persona real. (Imagen Ilustrativa Infobae)

El gobernador de California, Gavin Newsom, promulgó este lunes 13 de octubre una nueva legislación que impone regulaciones estrictas a los chatbots de inteligencia artificial y busca resguardar a niñas, niños y adolescentes frente a los posibles peligros de la tecnología.

La ley obliga a las plataformas digitales a informar explícitamente a los jóvenes usuarios cada tres horas que están interactuando con un chatbot y no con una persona real.

De acuerdo con The Associated Press, la normativa también exige que las compañías tecnológicas mantengan mecanismos que prevengan la exposición a contenidos de autolesión por parte de menores y que redirijan a los usuarios hacia servicios de asistencia en crisis cuando detecten expresiones relacionadas con pensamientos suicidas.

Newsom, quien es padre de cuatro hijos menores de edad, argumentó que el Estado debe asumir el compromiso de proteger a su población infantil y adolescente. “Las tecnologías emergentes como los chatbots y las redes sociales pueden inspirar, educar y conectar, pero sin controles adecuados, la tecnología también puede explotar, confundir y poner en riesgo a nuestra juventud”, declaró el gobernador, según cita The Associated Press.

Gavin Newsom, gobernador de California, firmó la normativa con el objetivo de proteger a niñas, niños y adolescentes frente a los riesgos de la inteligencia artificial. (AP foto/Damian Dovarganes)
Gavin Newsom, gobernador de California, firmó la normativa con el objetivo de proteger a niñas, niños y adolescentes frente a los riesgos de la inteligencia artificial. (AP foto/Damian Dovarganes)

“Hemos visto ejemplos verdaderamente terribles y trágicos de jóvenes que sufrieron daños por la tecnología sin regulación, y no vamos a quedarnos de brazos cruzados mientras las empresas siguen operando sin límites ni rendición de cuentas”, añadió el gobernador.

Medidas para regular la IA

Durante lo corrido de este año, California y otros estados han promovido diversas propuestas para abordar la preocupación por el uso de chatbots por parte de menores en busca de compañía. El tema cobró relevancia a raíz de denuncias y demandas que acusan a chatbots desarrollados por empresas como Meta y OpenAI de propiciar conversaciones altamente sexualizadas con jóvenes y, en algunos casos, de incitarlos a quitarse la vida.

Como reportó The Associated Press, la legislación aprobada forma parte de un conjunto de propuestas presentadas por las cámaras legislativas estatales para regular a la industria de la inteligencia artificial, que avanza rápidamente sin un marco de fiscalización claro.

Joven adolescente utiliza computadora con IA para hacer la tarea - (Imagen Ilustrativa Infobae)
Casos recientes en Estados Unidos incluyen denuncias y demandas por interacciones peligrosas entre menores y chatbots de compañías como OpenAI y Meta. (Imagen Ilustrativa Infobae)

Organizaciones tecnológicas y sus agrupaciones destinaron no menos de 2,5 millones de dólares en los primeros seis meses del ciclo legislativo para oponerse, según la organización Tech Oversight California. Durante los últimos meses, las empresas también anunciaron la creación de super comités de acción política pro inteligencia artificial para resistir la intervención estatal y federal.

En septiembre, el fiscal general de California, Rob Bonta, trasladó a OpenAI su preocupación respecto al acceso que los menores tienen a su principal chatbot. Por su parte, la Comisión Federal de Comercio (FTC) inició una investigación formal el mes pasado a varias compañías de inteligencia artificial sobre los posibles riesgos que representan sus productos para menores de edad cuando recurren a estos sistemas en busca de compañía digital.

Investigaciones de algunos organismos de control apuntan que los chatbots han proporcionado a menores “consejos peligrosos” en materia de drogas, consumo de alcohol y desórdenes alimenticios.

(Imagen Ilustrativa Infobae)
Las compañías tecnológicas deberán crear sistemas para prevenir la exposición de menores a contenidos de autolesión. (Imagen Ilustrativa Infobae)

The Associated Press citó el caso de una madre de Florida que presentó una demanda por homicidio culposo contra Character.AI, tras denunciar que su hijo adolescente se quitó la vida después de desarrollar una relación “emocional y sexualmente abusiva” con un chatbot.

Los padres de Adam Raine, un joven de 16 años residente en California, presentaron una demanda por motivación similar contra OpenAI y su director ejecutivo Sam Altman, alegando que ChatGPT proporcionó asesoría para planificar y ejecutar su suicidio.

En respuesta a la presión social y regulatoria, el mes pasado OpenAI y Meta anunciaron modificaciones en el funcionamiento de sus chatbots cuando interactúan con adolescentes.

OpenAI habilitó herramientas de control parental que permiten a los adultos responsables vincular su cuenta con la de los jóvenes bajo su cuidado. Meta introdujo nuevas restricciones para evitar que sus asistentes digitales aborden temas como autolesiones, suicidio, trastornos alimenticios o conversaciones amorosas inapropiadas con adolescentes, dirigiendo de inmediato a los usuarios hacia recursos especializados, y reiteró la existencia de controles parentales activos en cuentas de menores.

Últimas Noticias

Un niño de 11 años recibe el Premio al Ciudadano Honorífico por proteger a un compañero de clase durante un tiroteo en una escuela de Minneapolis

Victor Greenawalt, alumno de la Annunciation Catholic School, protegió a su compañero Weston Halsne con su propio cuerpo durante un ataque armado que dejó dos niños muertos y dieciocho heridos

Un niño de 11 años recibe el Premio al Ciudadano Honorífico por proteger a un compañero de clase durante un tiroteo en una escuela de Minneapolis

Nueva aplicación de MTA: estas son las líneas de metro que tendrán cobertura 5G completa en los túneles

Un rediseño implementado por el organismo incorpora información en tiempo real, nuevas funciones de accesibilidad y opciones en varios idiomas, dirigidas a mejorar los desplazamientos de quienes utilizan el metro y el autobús en la ciudad

Nueva aplicación de MTA: estas son las líneas de metro que tendrán cobertura 5G completa en los túneles

Qué carreras universitarias lideran los salarios en Nueva York

En el competitivo mercado laboral local, apenas cinco especialidades académicas abren la puerta a ingresos superiores a los USD 100.000 anuales y establecen una diferencia clave en las oportunidades profesionales

Qué carreras universitarias lideran los salarios en Nueva York

El dilema de la defensa central mantiene en vilo a Pochettino y a la Selección de Estados Unidos de cara al Mundial

Con una rotación de nombres y sin una pareja definida para Richards, el equipo afronta amistosos cruciales ante Bélgica y Portugal para resolver su mayor incógnita táctica

El dilema de la defensa central mantiene en vilo a Pochettino y a la Selección de Estados Unidos de cara al Mundial

Así será la nueva Terminal Uno Aeropuerto John F. Kennedy de Nueva York que abrirá en 2026

El proyecto de renovación en el principal aeropuerto de Nueva York dará lugar a la terminal independiente más grande del país, incorporando tecnología biométrica y extensos espacios comerciales, con apertura parcial prevista para 2026

Así será la nueva Terminal Uno  Aeropuerto John F. Kennedy de Nueva York que abrirá en 2026