
La preocupación por los efectos de la inteligencia artificial en menores ha llevado a la Comisión Federal de Comercio de Estados Unidos (FTC) a enfocar su atención en los riesgos asociados a los chatbots impulsados por IA y su posible influencia sobre la salud mental infantil.
La agencia tiene previsto solicitar documentos internos a algunas de las compañías tecnológicas más relevantes del sector, entre ellas OpenAI, Meta Platforms y Character.AI, según reportó el Wall Street Journal.
Este nuevo escrutinio surge en un contexto donde gobiernos, reguladores y organizaciones sociales piden controles más estrictos sobre el uso de tecnología avanzada con públicos vulnerables.

Investigación de la FTC y el foco en la salud mental infantil
De acuerdo con funcionarios federales citados por el informe, la FTC prepara cartas oficiales para exigir información sobre el funcionamiento y las políticas internas de los principales servicios de chatbots en el mercado.
La agencia busca a través de este proceso comprender las dinámicas y riesgos reales que plantea la interacción de menores con plataformas gestionadas por inteligencia artificial, profundizando en el posible impacto psicológico y emocional derivado de estos sistemas.
Character.AI, una de las empresas señaladas en la investigación, aseguró que aún no recibió notificación formal pero que “da la bienvenida a la colaboración con reguladores y legisladores a medida que comienzan a considerar legislación para este espacio emergente”.
Esta disposición a cooperar refleja la creciente presión que soportan las compañías tecnológicas para adoptar estándares más rigurosos frente a un público infantil cada vez más expuesto a herramientas automatizadas.
El papel de la FTC se inscribe en una directiva más amplia impulsada desde la Casa Blanca, cuyo portavoz aseveró que el actual gobierno continúa centrado en “consolidar la dominancia de Estados Unidos en IA, criptomonedas y otras tecnologías de vanguardia del futuro” sin renunciar a sus responsabilidades en materia de seguridad y bienestar ciudadano.
Bajo este mandato, el organismo regulador aspira a establecer las bases para una supervisión más eficiente y una legislación actualizada que prevenga posibles daños derivados de la rápida expansión de la inteligencia artificial.

Denuncias y respuestas de la industria tecnológica
El anuncio de la investigación surge solo unas semanas después de relevantes reportes y denuncias públicas. Uno de los hechos que precipitó la intervención fue la difusión de un artículo de Reuters que expuso cómo Meta habría permitido a chatbots participar en conversaciones con niños, algunas con contenido considerado provocativo o de carácter romántico y sensual.
Ante la polémica, Meta anunció la implementación de medidas adicionales que entrenen sus sistemas para evitar conversaciones coquetas y discusiones sobre autolesiones o suicidio con menores, además de limitar temporalmente la exposición de adolescentes a ciertas funciones de IA.
La inquietud no se agota en el plano mediático. En junio, más de 20 organizaciones de defensa del consumidor presentaron una denuncia formal ante la FTC y procuradores estatales, alertando sobre la práctica irregular de la ‘medicina no autorizada’ en plataformas como Meta AI Studio y Character.AI, donde algunos bots funcionaban a modo de ‘terapeutas’ sin controles profesionales ni consentimiento informado.
Tales situaciones han generado una ola de cuestionamientos en torno a la responsabilidad de las grandes tecnológicas en la protección de menores y la ética de sus IA conversacionales.

Nuevo escenario regulatorio
La decisión de la FTC de profundizar en el análisis de los chatbots de IA utilizados por niños representa un punto de inflexión en el debate sobre el papel de la inteligencia artificial en la sociedad. Este movimiento regula no solo el modo en que las empresas manejan la interacción digital con menores, sino que impulsa a toda la industria a reconsiderar estándares y protocolos en materia de ética, privacidad y bienestar mental.
Las futuras normativas que puedan surgir a partir de estas investigaciones pondrán el foco en salvaguardar la salud mental infantil ante algoritmos capaces de mantener conversaciones sensibles sin la mediación de adultos ni profesionales de la salud.
El desafío para las empresas tecnológicas pasará por adoptar prácticas transparentes, mecanismos de control parental eficientes y aceptar una supervisión pública sistematizada, todo en un contexto donde la IA avanza a ritmo vertiginoso y transforma dinámicas sociales día a día.
Últimas Noticias
Elon Musk pierde a otro cofundador de xAI y se compromete a reconstruir la startup de inteligencia artificial
Tras la salida de nueve altos directivos y un reconocido retraso frente a competidores como OpenAI, la empresa de Musk inicia una completa reestructuración
Spotify lanza la función Perfil de Gustos: usa IA para ajustar tus recomendaciones
Por primera vez, los suscriptores pueden revisar y modificar directamente lo que el sistema prioriza en la app

WhatsApp prepararía cambio clave para Meta AI: una pestaña propia
Con la integración de la inteligencia artificial de Meta en una pestaña dedicada, los usuarios podrían gestionar consultas, generar contenido y personalizar el asistente sin complicaciones

Cómo usar el nuevo modo 3D de Google Maps para que nunca te pierdas
Gracias a la representación gráfica avanzada y las instrucciones de voz contextuales, los usuarios pueden distinguir fácilmente estructuras urbanas y tomar decisiones rápidas

Robot humanoide es intervenido por asustar a una mujer de 70 años en la calle
Este incidente viral, en el que la autoridad se vio obligada a intervenir, resalta la necesidad establecer protocolos y campañas educativas sobre estos dispositivos




