Las principales empresas de inteligencia artificial no cumplen con los estándares globales de seguridad que han prometido, según el informe Winter AI Safety Index 2025, publicado por el Future of Life Institute (FLI).
El documento advierte que estas deficiencias podrían implicar riesgos catastróficos para la sociedad. La industria enfrenta actualmente demandas y acusaciones por daños psicológicos y ciberataques facilitados por sus sistemas.
El informe evaluó a ocho grandes compañías: Anthropic, OpenAI, Google DeepMind, xAI y Meta, con sede en Estados Unidos, y DeepSeek, Alibaba Cloud y Z.ai, de China. La investigación se centró en seis áreas críticas: evaluación de riesgos, daños actuales, marcos de seguridad, gobernanza y rendición de cuentas, seguridad existencial y compartición de información.
Analistas independientes concluyeron que ninguna empresa tiene un plan verificable para mantener el control humano sobre sistemas de IA avanzados. El FLI subrayó la falta de estrategias creíbles para evitar el uso indebido o la pérdida de control de estas tecnologías, especialmente ante el avance hacia la AGI y la superinteligencia, sistemas capaces de superar la inteligencia humana.
El estudio reconoció algunos avances, pero señaló que las medidas de seguridad siguen siendo inconsistentes. Entre los riesgos más graves, destaca la ausencia de mecanismos efectivos para evitar el mal uso de la IA y la posible pérdida de control sobre sistemas cada vez más autónomos.
No obstante, el informe destacó a Anthropic, OpenAI y Google DeepMind por su transparencia relativa y la inversión en investigación técnica, aunque todas presentaron debilidades. Anthropic fue criticada por priorizar el entrenamiento basado en interacciones de usuarios, lo que debilita la protección de la privacidad.
OpenAI fue cuestionada por la ambigüedad de sus umbrales de seguridad y la falta de supervisión independiente.
Google DeepMind mejoró su marco de seguridad, aunque la dependencia de evaluadores externos remunerados por la empresa compromete su independencia.
Un portavoz de Google DeepMind defendió su enfoque “riguroso y basado en la ciencia” para la seguridad y explicó a Euronews: “Nuestro Frontier Safety Framework establece protocolos específicos para identificar y mitigar riesgos graves de modelos avanzados antes de que se manifiesten. A medida que nuestros modelos evolucionan, seguimos innovando en seguridad y gobernanza al ritmo de sus capacidades”.
Max Tegmark, presidente del FLI y profesor en el MIT, destacó que las tres principales empresas han sufrido daños por escándalos recientes: daños psicológicos, suicidios infantiles y ciberataques.
Respecto al control de la AGI, advirtió: “La pregunta a las empresas sobre sus planes para controlar la AGI: ninguna tenía un plan”. También criticó que la IA esté menos regulada que los sándwiches en Estados Unidos y señaló la presión contra estándares de seguridad vinculantes.
El informe también evaluó a las otras cinco empresas. xAI publicó su primer marco de seguridad, aunque es limitado y carece de mecanismos claros de mitigación. Z.ai permitió la publicación sin censura de sus evaluaciones, aunque debe hacer público su marco completo de seguridad.
Meta introdujo un nuevo marco con umbrales basados en resultados, pero los expertos piden mayor claridad en sus metodologías internas y externas. DeepSeek fue reconocida por la defensa de sus empleados, aunque carece de documentación de seguridad. Alibaba Cloud contribuyó a estándares nacionales sobre marcas de agua, aunque debe mejorar la fiabilidad y seguridad de sus modelos.
La preocupación por el impacto de la superinteligencia en el empleo y la dependencia social ha impulsado un debate global sobre la responsabilidad de las empresas y la necesidad de regulación gubernamental.
En octubre, miles de figuras públicas, incluidos líderes tecnológicos, políticos y científicos, firmaron una petición organizada por el FLI para pedir a las compañías que frenen el desarrollo acelerado de la superinteligencia. El consenso internacional apunta a la urgencia de establecer controles y regulaciones efectivos sobre el avance de la inteligencia artificial.