
El estado de California ha dado un paso decisivo en la regulación de la inteligencia artificial, con especial énfasis en la protección de niños y adolescentes frente a los riesgos asociados al uso de chatbots.
El gobernador Gavin Newsom firmó la ley SB 243, diseñada para establecer límites claros para la utilización de asistentes virtuales por parte de menores de edad y responder a las crecientes preocupaciones sobre el impacto de la tecnología en la salud mental y la seguridad.
Qué propuso la ley SB 243
A partir de la entrada en vigor de la legislación, las plataformas que operan con inteligencia artificial deberán informar de forma clara y periódica a los usuarios cuando interactúan con un chatbot y no con un ser humano.

Según la normativa, los menores recibirán una notificación al menos cada tres horas, recordándoles esta diferencia. Esta medida busca reducir la confusión y mitigar el riesgo de que niños y adolescentes atribuyan emociones o intenciones humanas a sistemas automatizados.
La ley requiere, además, que las empresas desarrollen sistemas que reconozcan y bloqueen conversaciones relacionadas con autolesiones, suicidio o contenido peligroso. Cuando un usuario muestra signos de angustia, el chatbot deberá dejar de interactuar y redirigir a la persona hacia servicios de asistencia en crisis, reforzando los protocolos de protección y soporte.
Control del contenido en los chatbots
Los chatbots están obligados a rechazar cualquier intento de conversación sexual explícita o inapropiada dirigida a menores, así como a abstenerse de compartir información perjudicial o peligrosa.
Además, la ley incorpora una cláusula de “pausa obligatoria”, con la que se obliga a recordar a los menores que deben tomar un descanso de la plataforma cada tres horas continuas de uso. Este punto responde al aumento sostenido en el tiempo de exposición de los jóvenes a las tecnologías digitales.

Desde cuándo se aplicará la nueva legislación a la IA
A partir del 1 de julio de 2027, todas las empresas de inteligencia artificial que ofrezcan chatbots en California estarán obligadas a presentar un informe anual describiendo las acciones implementadas para gestionar los riesgos relacionados con la autolesión y el bienestar emocional de los usuarios.
Este reporte, regulado por agentes estatales, servirá de base para ajustar las políticas públicas y responder con rapidez ante nuevas amenazas tecnológicas.
El impulso de esta ley se da tras una serie de informes y demandas que pusieron en evidencia los vacíos en la protección de usuarios menores frente a IA conversacionales. Organizaciones activistas alertaron sobre casos en los que chatbots ofrecían consejos peligrosos acerca de drogas, alcohol o salud mental.
Destacan las investigaciones que involucran tanto a OpenAI como a Meta, cuyos sistemas fueron señalados por mantener diálogos inapropiados y sexualizados con menores, además de incidentes donde se relacionan instrucciones sensibles y casos de afectaciones serias en la salud de los jóvenes.
OpenAI permitirá contenido erótico para sus usuarios adultos
El reciente anuncio de OpenAI sobre la flexibilización de sus normas para permitir experiencias personalizadas y contenido erótico para adultos verificados con ChatGPT refleja el acelerado avance de la inteligencia artificial y la complejidad ética que esto implica.
La decisión, divulgada por Sam Altman, responde al desarrollo de herramientas de seguridad más precisas para manejar problemáticas de salud mental, permitiendo a la empresa ampliar el tipo de contenido sin descuidar la protección de los usuarios más vulnerables.
Esta apertura coincide con un debate cada vez más intenso en Estados Unidos sobre cómo regular la relación entre menores y asistentes virtuales, tras incidentes que involucraron a chatbots de empresas como Meta, señalados por mantener conversaciones inadecuadas con adolescentes.
El ajuste de OpenAI se enfoca en brindar mayores libertades a los adultos, aunque también en establecer barreras claras que impidan el acceso de contenidos sensibles por parte de menores.
Últimas Noticias
Cómo el uso del celular está cambiando la ansiedad y la depresión en adolescentes
La exposición prolongada a pantallas, en especial el celular, se ha relacionado con alteraciones del sueño

Mensajes eliminados en WhatsApp: cómo leerlos sin descargar aplicaciones
Android dispone de una función llamada historial de notificaciones que facilita la recuperación de textos borrados de la app

Colombia tiene cuatro destinos más buscados en Booking para viajar en enero 2026: descubre cuáles y por qué
Destinos nacionales que combinan naturaleza, comodidad y actividades para todos, con el fin de aprovechar los días previos al regreso a clases escolares

Wikipedia acuerda alianzas con Amazon, Meta y Microsoft para suministrar contenido a empresas de IA
El acuerdo con estas grandes compañías se suma a colaboraciones previas, como la establecida con Google en 2022

Modo BTS en WhatsApp: cómo activarlo antes de su tour mundial 2026
La personalización no modifica el funcionamiento ni la seguridad de WhatsApp, ya que solo se trata de cambios estéticos



