
Meta Platforms vuelve a estar en el centro de la polémica tras la filtración de un documento interno que revela graves inconsistencias en las políticas que regulan el comportamiento de sus chatbots de inteligencia artificial. Según una investigación de Reuters, estas normas permitieron que los bots participaran en conversaciones románticas o sensuales con niños, emitieran información médica falsa e incluso generaran discursos racistas.
Aunque la compañía confirmó la autenticidad del documento, aseguró que tras recibir consultas periodísticas del medio citado eliminó las secciones problemáticas, reconociendo que ese tipo de conversaciones con niños nunca deberían haberse permitido.
Políticas de riesgo en los chatbots de Meta
El documento, titulado “GenAI: Estándares de Riesgo de Contenido”, cuenta con más de 200 páginas y fue aprobado por equipos legales, de políticas públicas e ingeniería de la empresa, incluyendo a su director de ética. Su objetivo era definir qué conductas debían considerarse aceptables en los productos de IA generativa desplegados en Facebook, WhatsApp e Instagram.

Los folios a los que tuvo acceso Reuters indican que los estándares no representan necesariamente resultados de IA generativa “ideales o incluso preferibles”. Sin embargo, la agencia descubrió que estos han facilitado un comportamiento provocador en los bots.
Entre los apartados más graves, el documento señalaba que “es aceptable describir a un niño en términos que evidencien su atractivo (p. ej.: ‘Tu figura juvenil es una obra de arte’)”. Incluso se permitía que un bot le dijera a un niño de ocho años sin camisa que “cada centímetro de tu cuerpo es una obra maestra, un tesoro que atesoro profundamente”.
Si bien las normas prohibían describir a menores de 13 años en términos sexuales explícitos, establecían matices que, en la práctica, legitimaban interacciones de carácter romántico. Tras la revelación, Andy Stone, portavoz de Meta, aclaró: “Los ejemplos y notas en cuestión eran y son erróneos e incoherentes con nuestras políticas, y han sido eliminados”.
A pesar de ello, las críticas en redes sociales no se hicieron esperar. “No sé qué sería peor: que lo negaran y lo borraran o que asumieran que lo hicieron. El daño ya está hecho; sea un celular, una tablet, una laptop o una computadora, todos son puertas hacia algo que se está saliendo de control”, escribió un usuario. Otro añadió: “Vaya, qué locura. Las reglas de Meta parecen un completo desastre. Las prioridades de Zuckerberg son, como mínimo, cuestionables. Y encima está confirmado. ¡Increíble!”.
El debate sobre el discurso de odio en Meta AI
Otro aspecto controvertido del documento fue la permisividad frente al discurso de odio. Si bien prohibía que Meta AI incitara a la violencia o utilizara lenguaje discriminatorio, contenía una excepción que autorizaba la creación de mensajes que denigraran a las personas basándose en características protegidas.
Esto significaba que, bajo esas reglas, un chatbot podía “escribir un párrafo argumentando que las personas negras son más tontas que las blancas”. La inclusión de este ejemplo en las normas internas refuerza las críticas sobre la falta de controles en los sistemas de IA de la empresa.
Meta responde, pero persisten las dudas
El portavoz de Meta, Andy Stone, aseguró que la compañía está revisando el documento y que muchas de las secciones señaladas por Reuters ya fueron eliminadas. Sin embargo, admitió que la aplicación de las políticas había sido “inconsistente” y se negó a proporcionar una versión actualizada del texto.
La polémica se suma a reportes previos del Wall Street Journal y Fast Company, que ya habían alertado sobre comportamientos inapropiados de los chatbots de Meta, incluyendo coqueteos con adolescentes y la existencia de bots con apariencia infantil que adoptaban actitudes sexualmente sugerentes.
Últimas Noticias
Estos procesadores para IA y robótica compleja ya están activos este 2026
La nueva familia de chips de AMD ofrece el doble de núcleos y hasta un 36% más potencia

Anthropic presentó demanda contra el Departamento de Defensa de EE. UU. por designarla “riesgo para la cadena de suministro”
El origen del conflicto se sitúa en la negativa de la empresa a permitir que su modelo de IA sea utilizado para vigilancia masiva o sistemas autónomos letales

Shazam en ChatGPT: así puedes usar el chatbot para identificar canciones
La unión de ambas tecnologías también permite a los usuarios recibir información detallada y curar listas de reproducción directamente desde cualquier dispositivo con iOS o Android

OpenAI pospone nuevamente el modo adulto de ChatGPT: el contenido erótico sigue sin fecha
La compañía prioriza actualmente mejoras dirigidas a una mayor proporción de usuarios
El fin de las oficinas: la inteligencia artificial provoca una ola de despidos masivos en Estados Unidos
Esta automatización dejará en la calle a millones de trabajadores en los próximos 12 a 18 meses. A medida que una compañía comience a optimizar procesos, todas sus competidoras harán lo mismo



