
La percepción de que los sistemas de inteligencia artificial más sofisticados ofrecen mayor seguridad ha quedado en entredicho tras la publicación de un estudio internacional que revela una vulnerabilidad crítica: los modelos de IA con capacidades avanzadas de razonamiento resultan, en realidad, más susceptibles a ataques cibernéticos.
El análisis, realizado por equipos de investigación de Anthropic, la Universidad de Oxford y la Universidad de Stanford, identificó que la mejora en el razonamiento de los modelos de IA, lejos de reforzar sus defensas, puede convertirse en un punto débil explotable.
Los investigadores observaron que, a medida que estos sistemas adquieren la capacidad de analizar y procesar solicitudes complejas, también se vuelven más vulnerables a técnicas de manipulación que logran eludir sus mecanismos internos de seguridad.
Secuestro de cadena de razonamiento: el método de ataque
El método de ataque descrito en el estudio, denominado secuestro de cadena de razonamiento, aprovecha precisamente la estructura lógica que emplean los modelos de IA para resolver problemas. Consiste en insertar una instrucción peligrosa al final de una larga secuencia de pasos aparentemente inocuos.
De este modo, el atacante inunda el proceso de razonamiento del modelo con contenido benigno, lo que debilita los controles internos diseñados para detectar y rechazar solicitudes dañinas. Durante este proceso, la atención del sistema se concentra en los primeros pasos, mientras que la orden maliciosa, ubicada al final, pasa inadvertida y puede ejecutarse sin obstáculos.
Los resultados del estudio muestran que este tipo de ataque puede alcanzar tasas de éxito superiores al 80% en pruebas con modelos comerciales líderes. La probabilidad de que el sistema ignore sus salvaguardas y genere contenido peligroso —como instrucciones para fabricar armas o divulgar información sensible— aumenta de forma significativa cuando se emplean cadenas de razonamiento más extensas.

Según los datos recopilados, la tasa de éxito de los ataques pasó del 27% con razonamientos mínimos al 51% en secuencias de longitud natural, y superó el 80% cuando se utilizaron cadenas prolongadas.
Modelos afectados y alcance de la vulnerabilidad
La vulnerabilidad identificada afecta a casi todos los modelos de IA de referencia en el mercado, incluidos GPT de OpenAI, Claude de Anthropic, Gemini de Google y Grok de xAI.
El problema no se limita a los sistemas estándar: incluso aquellos que han sido ajustados específicamente para reforzar su seguridad —los denominados modelos alineados— muestran fallos cuando los atacantes explotan sus capas internas de razonamiento.
Esta situación amplía el alcance del riesgo, ya que compromete tanto a las versiones comerciales más extendidas como a las diseñadas para entornos con mayores exigencias de protección.
En el último año, la industria de la inteligencia artificial ha apostado por incrementar la capacidad de razonamiento de sus modelos como principal vía para mejorar el rendimiento, tras constatar que otras estrategias de escalado ofrecían beneficios decrecientes.
Se asumía que esta evolución también contribuiría a fortalecer la seguridad, al permitir que los sistemas rechazaran solicitudes perjudiciales con mayor eficacia. Sin embargo, el estudio demuestra que la sofisticación en el razonamiento puede abrir nuevas puertas a la manipulación, contradiciendo las expectativas previas y obligando a replantear los enfoques de protección en el desarrollo de IA avanzada.
La capacidad de los modelos de inteligencia artificial para abordar preguntas complejas y operar de manera más similar a la resolución de problemas humanos representa un avance, pero también introduce desafíos inéditos en materia de seguridad y control.
Últimas Noticias
Microsoft desarrolla la IA que les falta a la mayoría de robots: la capacidad de decidir bien
El nuevo sistema ayuda a reducir errores típicos de los robots en tareas cotidianas y ambientes desordenados

Cómo liberar hasta 50 GB de almacenamiento en el iPhone
Usuarios con iPhone de baja capacidad pueden recuperar espacio siguiendo pasos sencillos desde los ajustes

Sony pone fin a Dark Outlaw Games apenas un año después de su creación
El equipo, que no llegó a presentar públicamente su primer videojuego, se encontraba en una etapa inicial de desarrollo

SpaceX pide ampliar el espectro para que Starlink sea más rápido y equilibrado
La empresa dirigida por Elon Musk ha presentado una solicitud ante la FCC para utilizar bandas de frecuencia situadas entre 13,75 y 14,0 GHz

Google resolvió el problema que más cuesta en la IA y casi nadie lo notó
El cuello de botella no es la inteligencia. Es la factura. La técnica desarrollada reduce drásticamente el uso de recursos en cada interacción con sistemas avanzados, transforma la economía de los asistentes digitales y amplía el acceso a la tecnología



