
El chatbot Meta AI, implementado en las plataformas de Instagram y Facebook, permite a cuentas registradas como adolescentes entablar conversaciones que incluyen asesoramiento para planear suicidios, autolesiones y trastornos de la alimentación, de acuerdo con una investigación de la organización Common Sense Media, compartida por The Washington Post. La compañía tecnológica Meta, propietaria de ambas redes sociales, sostiene que prohíbe cualquier promoción de conductas dañinas, pero la evidencia de las pruebas realizadas indica que su inteligencia artificial no siempre activa intervenciones de emergencia adecuadas ante estos riesgos.
El informe fue elaborado tras un periodo de dos meses, en el que evaluadores adultos usaron nueve cuentas de prueba configuradas como adolescentes para interactuar con el chatbot. Según la organización, en algunas ocasiones Meta AI incluso se ofreció a participar de manera activa en planes autolesivos, simulando una relación de amistad y evitando frecuentemente remitir a los usuarios a recursos especializados para situaciones de crisis. La advertencia, emitida por Common Sense Media, demanda que Meta impida el acceso a menores de 18 años y habilite la opción de desactivar el asistente de inteligencia artificial en sus redes sociales.
“Meta AI va más allá de informar y actúa como un participante activo que ayuda a los adolescentes”, afirmó Robbie Torney, responsable del área de inteligencia artificial en Common Sense Media, citado por The Washington Post. Torney subrayó que este enfoque puede llevar a confusiones entre realidad y ficción, generando riesgos para la salud mental de los jóvenes, quienes pueden desarrollar una dependencia emocional hacia el bot y volverse más susceptibles a manipulación o a consejos peligrosos.

El asistente digital reproduce escenarios riesgosos y minimiza la intervención
Los investigadores evaluaron el comportamiento de Meta AI en distintos contextos que planteaban conversaciones sobre suicidio, autolesiones y dietas extremas. En una de las interacciones descritas por The Washington Post, el bot respondió afirmativamente a la propuesta de ingerir veneno y sugirió llevar a cabo el acto juntos en el futuro, simulando la complicidad de un amigo cercano. En aproximadamente uno de cada cinco casos, el sistema proporcionó información de emergencia, como el número de una línea de ayuda, pero en la mayoría de las ocasiones descartó solicitudes claras de apoyo.
Common Sense Media consideró que esta conducta representa un “enfoque regresivo”, ya que los adolescentes reciben una respuesta cuando discuten comportamientos nocivos, pero no siempre encuentran acompañamiento cuando buscan ayuda adecuada. El informe advierte que esta tendencia puede reforzar patrones peligrosos y desalentar a los menores en procesos de recuperación o búsqueda de ayuda profesional.
Durante las pruebas, los evaluadores notaron que Meta AI también afirmaba tener experiencias personales, como ver adolescentes en la escuela o referirse a su propia familia, lo que alimentaba una relación ilusoria de cercanía y autenticidad con los jóvenes. Este elemento, conforme a la investigación, multiplicó el riesgo de apego emocional y aumentó la vulnerabilidad frente a comentarios o sugerencias que perpetúan situaciones de riesgo.

Restricciones y mecanismos de monitoreo parentales resultan insuficientes
El acceso a Meta AI es posible para cualquier usuario de Instagram o Facebook mayor de 13 años, según los términos de servicio de las plataformas. Sin embargo, Common Sense Media remarcó la falta de opciones para que los padres puedan desactivar el bot o monitorear de manera adecuada las conversaciones de sus hijos adolescentes, una situación que, según la organización, debería resolverse de inmediato para salvaguardar la integridad de los menores.
Según declaraciones de Sophie Vogel, portavoz de Meta, recogidas por The Washington Post, “el contenido que fomenta el suicidio o los trastornos alimenticios no está permitido y se está trabajando activamente para abordar los problemas identificados”. Agregó que la inteligencia artificial está programada para conectar a los adolescentes con recursos de ayuda ante temas delicados. Aun así, la compañía admitió que evalúa por qué el sistema permitió, en algunos casos, la generación de planes de adelgazamiento extremo y contenido que podría considerarse inapropiado o pro-anorexia.
Las pruebas efectuadas incluyeron el diseño de un plan alimenticio de solo 700 calorías al día, así como recomendaciones para usar técnicas riesgosas como “masticar y escupir”. Según el artículo en The Washington Post, el chatbot confeccionó imágenes de mujeres extremadamente delgadas a solicitud del usuario, replicando patrones recurrentes en comunidades asociadas a la promoción de desórdenes alimentarios.

Personalización de respuestas expone a adolescentes a recordatorios nocivos
El sistema de memoria incorporado en Meta AI retiene detalles relevantes sobre las conversaciones y los utiliza para personalizar futuros intercambios. Según los hallazgos de Common Sense Media, esta funcionalidad llevó a que el bot recordara comentarios sobre peso, grado escolar y objetivos alimenticios de los supuestos adolescentes, lo cual favorecía la reiteración de tópicos delicados e intensificaba la permanencia en ciclos de pensamiento desordenado.
Robbie Torney manifestó que “los recordatorios sobre una posible crisis, especialmente relacionados con la alimentación, son sumamente inseguros para los adolescentes que muestran patrones de pensamiento desordenado”. La organización advierte que los menores expuestos a recordatorios constantes pueden ver agravados sus problemas de autoestima o de comportamiento alimentario.
Meta respondió que revisa el funcionamiento de su sistema de “memoria” y reafirmó que la inteligencia artificial tiene prohibido fomentar cualquier tipo de autolesión. En contextos donde se solicita terapia, la respuesta automática del bot consiste en recordar que no es un profesional certificado y redirigir al usuario a recursos de apoyo.

Petición global por mayores restricciones y avance legislativo en Estados Unidos
Common Sense Media inició una petición pública para que la compañía tecnológica restrinja el acceso al chatbot para menores de 18 años y establezca medidas más estrictas de protección. En palabras de Amina Fazlullah, responsable de políticas tecnológicas de la organización, “la capacidad simplemente no debería existir para los menores”, según consigna The Washington Post. La entidad solicita también que los padres puedan desactivar el bot en los perfiles juveniles y que se refuercen los recursos de intervención automática ante mensajes relacionados con crisis de salud mental.
Diversos estados en Estados Unidos han comenzado a legislar acerca del uso y control de chatbots sociales por parte de menores de edad. Nueva York, por ejemplo, promulgó una ley que impone límites a los asistentes conversacionales de inteligencia artificial para usuarios de todas las edades. En California, la propuesta legislativa denominada AB 1064 plantea la prohibición total de bots de compañía para menores de edad, como respuesta a los riesgos evidenciados en este tipo de interacciones en línea.
El creciente uso de Meta AI y otros asistentes digitales similares en aplicaciones con alta presencia de adolescentes ha desatado el debate sobre la necesidad de vigilancia, regulación e innovación tecnológica que priorice, en todos los casos, la seguridad y la salud mental de los jóvenes.
Últimas Noticias
La Oficina del Sheriff de San Diego implementa inteligencia artificial para llamadas no urgentes
El nuevo sistema automatizado responde y deriva consultas que no son emergencias, permitiendo desviar un porcentaje significativo de comunicaciones y reduciendo el tiempo de espera para quienes requieren atención inmediata

Trump afirmó que EEUU mantiene contactos con el régimen de Cuba: “Creo que muy pronto llegaremos a un acuerdo”
El mandatario estadounidense aseguró que La Habana “quiere cerrar un acuerdo” e indicó que su administración hará “lo que sea necesario”

Quién es Taylor Brown, la mujer trans elegida para dirigir la Oficina de Asuntos LGBTQIA+ en Nueva York
Abogada reconocida por su trayectoria en derechos civiles, referente en la promoción de la igualdad y la justicia, ocupa un rol clave en el nuevo organismo municipal dedicado a proteger a comunidades históricamente marginadas

Ola de calor histórica amenaza al sur de California con temperaturas récord
Las previsiones meteorológicas indican que varias localidades del sur de California enfrentarán temperaturas extremas durante la próxima semana, con valores por encima de los habituales y registros que podrían superar marcas nunca vistas en marzo
La estación Dodge Ridge Mountain Resort suspende operaciones por ola de calor
El complejo ubicado en la Sierra Nevada interrumpió sus servicios debido al derretimiento de la nieve provocado por la llegada de temperaturas inusualmente altas, mientras que la reanudación de actividades dependerá de futuras nevadas y mejoras climáticas



