La propagación de contenido generado por IA durante episodios de conflicto armado ha puesto en el centro del debate las políticas de detección y etiquetado de Meta. Tras analizar el caso de la guerra entre Israel e Irán de 2025, Oversight Board, el Consejo asesor de contenido de la compañía, concluyó que la respuesta ante la difusión de deepfakes fue insuficiente.
Asimismo, recomendaron que Meta debe evolucionar su enfoque para mostrar contenido generado por IA, proporcionar detalles a gran escala sobre el origen de los medios y desarrollar mejores métodos de etiquetado, además de invertir en herramientas de detección más sólidas.
El Consejo insta a la empresa a crear un sistema de reglas independiente para asegurar que los usuarios reconozcan “de forma confiable el contenido generado por IA” y a modificar sus políticas para garantizar una reacción adecuada ante publicaciones engañosas.
Fallos en la gestión del contenido manipulado durante la guerra Israel-Irán
El caso que detonó la advertencia fue un video difundido en Facebook durante el conflicto entre Israel e Irán, en junio de 2025. El material, compartido por un usuario desde Filipinas en una página que se presentaba como fuente noticiosa, mostraba supuestos daños en edificios de Haifa y fue identificado por la Agence France-Presse como falso y generado por IA.
A pesar de recibir más de 700.000 visualizaciones y de que varios comentarios advertían que se trataba de contenido manipulado, Meta no sometió la publicación a revisión ni la etiquetó como deepfake de alto riesgo.
El Consejo asesor revirtió la decisión de Meta de dejar el video sin advertencia y subrayó que el contenido “representó un riesgo significativo de inducir a error al público sobre un asunto importante en un momento crítico”.
En la página web de Oversight Board se señala que la compañía debe incluir “proporcionar detalles a gran escala sobre el origen de los medios, con base en estándares de procedencia del contenido”, así como invertir en “herramientas de detección más sólidas”.
Recomendaciones para el etiquetado y control de deepfakes
Entre las sugerencias, el Consejo pide que Meta desarrolle un conjunto de reglas independiente y adapte sus políticas actuales para responder de forma oportuna ante publicaciones manipuladas, especialmente las que circulan en situaciones de crisis o conflictos.
También se solicita que la empresa cumpla sus compromisos y aproveche tanto sus propias herramientas como las disponibles en la industria para combatir el contenido engañoso generado por IA.
El organismo enfatiza que “el hecho de que el contenido generado por IA resulte engañoso no constituye por sí mismo una razón legítima para restringir la libertad de expresión”, pero reclama coherencia en la industria y acciones concretas para ayudar a los usuarios a distinguir entre información verdadera y falsa.
Impacto y riesgos de los deepfakes en escenarios de crisis
Según el Consejo, el crecimiento del contenido sintético durante crisis como las de Irán y Venezuela en 2026 ha dificultado la capacidad del público para discernir la verdad y ha generado una “desconfianza generalizada hacia toda la información”.
El informe señala que “las campañas de influencia impulsadas por IA constituyen un desafío creciente que se ha observado a nivel mundial en los últimos años, agravado en ecosistemas restrictivos que limitan el acceso a la información creíble”.
El caso examinado marcó un punto de inflexión, ya que la presencia de deepfakes se conoció como una “guerra blanda” paralela al conflicto físico. El Consejo sostiene que, si bien el contenido engañoso no alcanzó el umbral para su eliminación —al no representar un riesgo de violencia o daño físico inminente—, Meta debió aplicar una etiqueta de “IA de alto riesgo”.
Tras la intervención del Consejo, la empresa deshabilitó cuentas y eliminó la página implicada, que incluso era elegible para monetizar dentro del programa Stars de Meta.
El organismo concluye que Meta debe tomar medidas adicionales para abordar la proliferación de contenido engañoso generado por IA y garantizar que los usuarios puedan distinguir entre lo real y lo falso, especialmente en temas de interés público y en escenarios críticos.