La propagación de contenido generado por IA durante episodios de conflicto armado ha puesto en el centro del debate las políticas de detección y etiquetado de Meta. Tras analizar el caso de la guerra entre Israel e Irán de 2025, Oversight Board, el Consejo asesor de contenido de la compañía, concluyó que la respuesta ante la difusión de deepfakes fue insuficiente.
Asimismo, recomendaron que Meta debe evolucionar su enfoque para mostrar contenido generado por IA, proporcionar detalles a gran escala sobre el origen de los medios y desarrollar mejores métodos de etiquetado, además de invertir en herramientas de detección más sólidas.
PUBLICIDAD
El Consejo insta a la empresa a crear un sistema de reglas independiente para asegurar que los usuarios reconozcan “de forma confiable el contenido generado por IA” y a modificar sus políticas para garantizar una reacción adecuada ante publicaciones engañosas.

Fallos en la gestión del contenido manipulado durante la guerra Israel-Irán
El caso que detonó la advertencia fue un video difundido en Facebook durante el conflicto entre Israel e Irán, en junio de 2025. El material, compartido por un usuario desde Filipinas en una página que se presentaba como fuente noticiosa, mostraba supuestos daños en edificios de Haifa y fue identificado por la Agence France-Presse como falso y generado por IA.
PUBLICIDAD
A pesar de recibir más de 700.000 visualizaciones y de que varios comentarios advertían que se trataba de contenido manipulado, Meta no sometió la publicación a revisión ni la etiquetó como deepfake de alto riesgo.
El Consejo asesor revirtió la decisión de Meta de dejar el video sin advertencia y subrayó que el contenido “representó un riesgo significativo de inducir a error al público sobre un asunto importante en un momento crítico”.
PUBLICIDAD
En la página web de Oversight Board se señala que la compañía debe incluir “proporcionar detalles a gran escala sobre el origen de los medios, con base en estándares de procedencia del contenido”, así como invertir en “herramientas de detección más sólidas”.
Recomendaciones para el etiquetado y control de deepfakes
Entre las sugerencias, el Consejo pide que Meta desarrolle un conjunto de reglas independiente y adapte sus políticas actuales para responder de forma oportuna ante publicaciones manipuladas, especialmente las que circulan en situaciones de crisis o conflictos.
PUBLICIDAD
También se solicita que la empresa cumpla sus compromisos y aproveche tanto sus propias herramientas como las disponibles en la industria para combatir el contenido engañoso generado por IA.
El organismo enfatiza que “el hecho de que el contenido generado por IA resulte engañoso no constituye por sí mismo una razón legítima para restringir la libertad de expresión”, pero reclama coherencia en la industria y acciones concretas para ayudar a los usuarios a distinguir entre información verdadera y falsa.
PUBLICIDAD

Impacto y riesgos de los deepfakes en escenarios de crisis
Según el Consejo, el crecimiento del contenido sintético durante crisis como las de Irán y Venezuela en 2026 ha dificultado la capacidad del público para discernir la verdad y ha generado una “desconfianza generalizada hacia toda la información”.
El informe señala que “las campañas de influencia impulsadas por IA constituyen un desafío creciente que se ha observado a nivel mundial en los últimos años, agravado en ecosistemas restrictivos que limitan el acceso a la información creíble”.
PUBLICIDAD
El caso examinado marcó un punto de inflexión, ya que la presencia de deepfakes se conoció como una “guerra blanda” paralela al conflicto físico. El Consejo sostiene que, si bien el contenido engañoso no alcanzó el umbral para su eliminación —al no representar un riesgo de violencia o daño físico inminente—, Meta debió aplicar una etiqueta de “IA de alto riesgo”.
Tras la intervención del Consejo, la empresa deshabilitó cuentas y eliminó la página implicada, que incluso era elegible para monetizar dentro del programa Stars de Meta.
PUBLICIDAD
El organismo concluye que Meta debe tomar medidas adicionales para abordar la proliferación de contenido engañoso generado por IA y garantizar que los usuarios puedan distinguir entre lo real y lo falso, especialmente en temas de interés público y en escenarios críticos.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Mide como un profesional: descubre las herramientas automáticas de medición en tu iPhone
La app Medición permite calcular dimensiones de diversos elementos apoyándose en la cámara y la IA del sistema

Meta enfrenta protestas internas por implementar tecnología de rastreo de ratón en sus oficinas estadounidenses
El malestar principal se centra en la introducción de herramientas digitales que consideran invasivas
Juega más rápido en GeForce NOW: integración de Gaijin y lanzamientos semanales
Los jugadores pueden entrar a sus títulos compatibles de manera más ágil, sin la necesidad de recordar múltiples contraseñas

Apps que convierten tu móvil en un metro digital: mide distancias y objetos fácilmente desde el celular
El teléfono puede usarse para calcular dimensiones de diversos elementos, según la tecnología del modelo y la exactitud necesaria



