
El estado de California ha dado un paso decisivo en la regulación de la inteligencia artificial, con especial énfasis en la protección de niños y adolescentes frente a los riesgos asociados al uso de chatbots.
El gobernador Gavin Newsom firmó la ley SB 243, diseñada para establecer límites claros para la utilización de asistentes virtuales por parte de menores de edad y responder a las crecientes preocupaciones sobre el impacto de la tecnología en la salud mental y la seguridad.
Qué propuso la ley SB 243
A partir de la entrada en vigor de la legislación, las plataformas que operan con inteligencia artificial deberán informar de forma clara y periódica a los usuarios cuando interactúan con un chatbot y no con un ser humano.

Según la normativa, los menores recibirán una notificación al menos cada tres horas, recordándoles esta diferencia. Esta medida busca reducir la confusión y mitigar el riesgo de que niños y adolescentes atribuyan emociones o intenciones humanas a sistemas automatizados.
La ley requiere, además, que las empresas desarrollen sistemas que reconozcan y bloqueen conversaciones relacionadas con autolesiones, suicidio o contenido peligroso. Cuando un usuario muestra signos de angustia, el chatbot deberá dejar de interactuar y redirigir a la persona hacia servicios de asistencia en crisis, reforzando los protocolos de protección y soporte.
Control del contenido en los chatbots
Los chatbots están obligados a rechazar cualquier intento de conversación sexual explícita o inapropiada dirigida a menores, así como a abstenerse de compartir información perjudicial o peligrosa.
Además, la ley incorpora una cláusula de “pausa obligatoria”, con la que se obliga a recordar a los menores que deben tomar un descanso de la plataforma cada tres horas continuas de uso. Este punto responde al aumento sostenido en el tiempo de exposición de los jóvenes a las tecnologías digitales.

Desde cuándo se aplicará la nueva legislación a la IA
A partir del 1 de julio de 2027, todas las empresas de inteligencia artificial que ofrezcan chatbots en California estarán obligadas a presentar un informe anual describiendo las acciones implementadas para gestionar los riesgos relacionados con la autolesión y el bienestar emocional de los usuarios.
Este reporte, regulado por agentes estatales, servirá de base para ajustar las políticas públicas y responder con rapidez ante nuevas amenazas tecnológicas.
El impulso de esta ley se da tras una serie de informes y demandas que pusieron en evidencia los vacíos en la protección de usuarios menores frente a IA conversacionales. Organizaciones activistas alertaron sobre casos en los que chatbots ofrecían consejos peligrosos acerca de drogas, alcohol o salud mental.
Destacan las investigaciones que involucran tanto a OpenAI como a Meta, cuyos sistemas fueron señalados por mantener diálogos inapropiados y sexualizados con menores, además de incidentes donde se relacionan instrucciones sensibles y casos de afectaciones serias en la salud de los jóvenes.
OpenAI permitirá contenido erótico para sus usuarios adultos
El reciente anuncio de OpenAI sobre la flexibilización de sus normas para permitir experiencias personalizadas y contenido erótico para adultos verificados con ChatGPT refleja el acelerado avance de la inteligencia artificial y la complejidad ética que esto implica.
La decisión, divulgada por Sam Altman, responde al desarrollo de herramientas de seguridad más precisas para manejar problemáticas de salud mental, permitiendo a la empresa ampliar el tipo de contenido sin descuidar la protección de los usuarios más vulnerables.
Esta apertura coincide con un debate cada vez más intenso en Estados Unidos sobre cómo regular la relación entre menores y asistentes virtuales, tras incidentes que involucraron a chatbots de empresas como Meta, señalados por mantener conversaciones inadecuadas con adolescentes.
El ajuste de OpenAI se enfoca en brindar mayores libertades a los adultos, aunque también en establecer barreras claras que impidan el acceso de contenidos sensibles por parte de menores.
Últimas Noticias
Investigadores de Google detectan a hackers rusos robando datos de usuarios de iPhone en Ucrania
Los ciberdelincuentes emplearon el malware Darksword para realizar sus ataques, en una campaña que evidencia la sofisticación y el alcance del espionaje digital en el conflicto armado

Por qué Meta desactiva el cifrado en los chats de Instagram y desde cuándo ya no estará disponible
A diferencia de WhatsApp, donde el cifrado de extremo a extremo está activado por defecto, en la red social los usuarios debían habilitar manualmente esta protección
Cómo es el sistema de computación que Nvidia quiere usar para construir centros de datos en el espacio
Con Vera Rubin Space-1, su nuevo módulo informático, la empresa busca llevar la computación de IA más allá de la Tierra
¿Mitad humano, mitad máquina? El nuevo robot que te convierte en centauro para cargar objetos pesados
A diferencia de los exoesqueletos convencionales, este sistema añade dos patas robóticas independientes que se conectan a la espalda de la persona

Construyen la primera batería cuántica del mundo: se carga más rápido cuanto más grande es
Los investigadores buscan combinar la velocidad de carga cuántica con la capacidad de almacenamiento de las baterías convencionales


