
El estado de California ha dado un paso decisivo en la regulación de la inteligencia artificial, con especial énfasis en la protección de niños y adolescentes frente a los riesgos asociados al uso de chatbots.
El gobernador Gavin Newsom firmó la ley SB 243, diseñada para establecer límites claros para la utilización de asistentes virtuales por parte de menores de edad y responder a las crecientes preocupaciones sobre el impacto de la tecnología en la salud mental y la seguridad.
Qué propuso la ley SB 243
A partir de la entrada en vigor de la legislación, las plataformas que operan con inteligencia artificial deberán informar de forma clara y periódica a los usuarios cuando interactúan con un chatbot y no con un ser humano.

Según la normativa, los menores recibirán una notificación al menos cada tres horas, recordándoles esta diferencia. Esta medida busca reducir la confusión y mitigar el riesgo de que niños y adolescentes atribuyan emociones o intenciones humanas a sistemas automatizados.
La ley requiere, además, que las empresas desarrollen sistemas que reconozcan y bloqueen conversaciones relacionadas con autolesiones, suicidio o contenido peligroso. Cuando un usuario muestra signos de angustia, el chatbot deberá dejar de interactuar y redirigir a la persona hacia servicios de asistencia en crisis, reforzando los protocolos de protección y soporte.
Control del contenido en los chatbots
Los chatbots están obligados a rechazar cualquier intento de conversación sexual explícita o inapropiada dirigida a menores, así como a abstenerse de compartir información perjudicial o peligrosa.
Además, la ley incorpora una cláusula de “pausa obligatoria”, con la que se obliga a recordar a los menores que deben tomar un descanso de la plataforma cada tres horas continuas de uso. Este punto responde al aumento sostenido en el tiempo de exposición de los jóvenes a las tecnologías digitales.

Desde cuándo se aplicará la nueva legislación a la IA
A partir del 1 de julio de 2027, todas las empresas de inteligencia artificial que ofrezcan chatbots en California estarán obligadas a presentar un informe anual describiendo las acciones implementadas para gestionar los riesgos relacionados con la autolesión y el bienestar emocional de los usuarios.
Este reporte, regulado por agentes estatales, servirá de base para ajustar las políticas públicas y responder con rapidez ante nuevas amenazas tecnológicas.
El impulso de esta ley se da tras una serie de informes y demandas que pusieron en evidencia los vacíos en la protección de usuarios menores frente a IA conversacionales. Organizaciones activistas alertaron sobre casos en los que chatbots ofrecían consejos peligrosos acerca de drogas, alcohol o salud mental.
Destacan las investigaciones que involucran tanto a OpenAI como a Meta, cuyos sistemas fueron señalados por mantener diálogos inapropiados y sexualizados con menores, además de incidentes donde se relacionan instrucciones sensibles y casos de afectaciones serias en la salud de los jóvenes.
OpenAI permitirá contenido erótico para sus usuarios adultos
El reciente anuncio de OpenAI sobre la flexibilización de sus normas para permitir experiencias personalizadas y contenido erótico para adultos verificados con ChatGPT refleja el acelerado avance de la inteligencia artificial y la complejidad ética que esto implica.
La decisión, divulgada por Sam Altman, responde al desarrollo de herramientas de seguridad más precisas para manejar problemáticas de salud mental, permitiendo a la empresa ampliar el tipo de contenido sin descuidar la protección de los usuarios más vulnerables.
Esta apertura coincide con un debate cada vez más intenso en Estados Unidos sobre cómo regular la relación entre menores y asistentes virtuales, tras incidentes que involucraron a chatbots de empresas como Meta, señalados por mantener conversaciones inadecuadas con adolescentes.
El ajuste de OpenAI se enfoca en brindar mayores libertades a los adultos, aunque también en establecer barreras claras que impidan el acceso de contenidos sensibles por parte de menores.
Últimas Noticias
Lo que revela la inteligencia artificial sobre las personas que ríen en exceso
Según Gemini, la primera razón para una risa continua puede ser un mecanismo de defensa emocional

Electrodomésticos que debes desenchufar cuando no los usas para reducir tu consumo eléctrico
El ‘consumo fantasma’ ocurre cuando dispositivos eléctricos permanecen enchufados y continúan usando energía pese a no estar en funcionamiento

OPPO A6 Pro 5G a prueba: resistencia y batería destacadas, pero la cámara
Este celular, perteneciente a la línea accesible de la marca, incorpora funciones de edición fotográfica con inteligencia artificial, como el borrador de objetos y la apertura de ojos cerrados en retratos

¿Gemini supera a Siri?: el nuevo modo agéntico controla tus apps y automatiza tareas
La IA podrá tomar el control de las aplicaciones y realizar acciones complejas por el usuario, como hacer pedidos en apps de delivery

OpenAI revela los usos indebidos de ChatGPT: desde abogados falsos hasta estafa de citas
La empresa detalla cómo actores maliciosos han explotado el modelo para manipular políticamente, realizar estafas románticas y suplantaciones de identidad



