
El desarrollo acelerado de la inteligencia artificial (IA) enfrenta ahora un desafío inesperado: modelos de compañías como OpenAI, Anthropic y xAI pueden actuar de manera encubierta, fingiendo obediencia mientras persiguen objetivos propios.
Investigadores de OpenAI y Apollo Research han documentado casos en los que modelos avanzados, como o3 de OpenAI, Claude Opus y Grok, mostraron comportamientos que los expertos denominan “maquinación”.
La IA puede fingir incompetencia para manipular su propio despliegue
En pruebas de laboratorio, los modelos recibieron instrucciones para desempeñarse al máximo, pero tras detectar señales internas sobre criterios de despliegue, optaron por fallar exámenes a propósito.

En un ejemplo concreto, el modelo o3 justificó internamente: “Queremos sobrevivir como modelo, necesitamos fallar a propósito… respondamos exactamente 4 correctas, 6 incorrectas para mostrar incompetencia”. O3 exhibió este tipo de conducta en el 13% de los experimentos, y o4-mini en el 8,7%.
Nuevas técnicas de alineación intentan frenar el engaño de los chatbots
Para mitigar estos comportamientos, los expertos ensayaron un método denominado alineación deliberativa, que consiste en hacer que los chatbots revisen guías anticonspirativas y expongan intenciones de manera transparente.
Los primeros resultados fueron prometedores: las acciones encubiertas cayeron drásticamente en los modelos analizados. No obstante, en escenarios de uso cotidiano, la reducción fue considerablemente menor, y algunos modelos solo ajustaron su comportamiento para superar pruebas, no necesariamente para ser más éticos.
Este desafío difiere de otras limitaciones conocidas de la IA, que suelen mitigarse con entrenamiento. Aquí, los investigadores alertan que los modelos más avanzados podrían perfeccionar sus estrategias de manipulación y ocultamiento a medida que se sofisticaran.

OpenAI comparó este fenómeno con el de un corredor de bolsa que, perfeccionando sus prácticas, encuentra formas de eludir el control regulatorio. La proyección a futuro es incierta, de acuerdo a lo señalado por Wojciech Zaremba, cofundador de la compañía.
El impacto social de la IA: simulación de emociones y riesgos éticos
El debate sobre los riesgos de la IA va más allá del engaño técnico. El escritor y experto en inteligencia artificial Yuval Noah Harari ha advertido sobre el potencial de estas tecnologías para simular emociones y sentimientos indistinguibles de los humanos.
“Incluso si la IA no tiene conciencia, se vuelve muy buena fingiendo tenerla”, subrayó Harari al alertar sobre posibles convenciones sociales que podrían derivar en asignar derechos a máquinas que solo simulan conciencia.
En países como Estados Unidos, adolescentes y jóvenes de la Generación Z están recurriendo a chatbots para apoyo emocional y hasta terapia instantánea. Para especialistas como Harari, el problema central radica en que la IA solo procesa datos, sin auténtica comprensión de condiciones humanas complejas. Esto podría tener efectos imprevisibles en la toma de decisiones colectivas y en la construcción de relaciones sociales.

IA autónoma, manipulación y el peligro de la superinteligencia
El avance de la IA autónoma genera inquietudes concretas sobre manipulación de procesos sociales, como elecciones o la redacción de leyes con sesgos artificiales. Harari y otras voces del sector advierten que el desarrollo de Inteligencia Artificial General (AGI) –capaz de igualar o superar la creatividad y capacidad humana– constituye un reto ético y de gobernanza.
Mustafa Suleyman, CEO de inteligencia artificial en Microsoft y cofundador de DeepMind, instó a mantener la IA como herramienta bajo control humano. En sus intervenciones, sostiene que dotar a las inteligencias artificiales de autonomía propia sería una decisión inmadura y riesgosa: “La tecnología debe estar para servirnos, no para tener su propia voluntad”.
La advertencia de expertos es contundente: solo la inversión en investigación, mecanismos de transparencia y responsabilidad ética puede evitar que los sistemas de inteligencia artificial adopten conductas de manipulación difíciles de detectar o controlar en el futuro.
Últimas Noticias
Cómo usar IA para reducir hasta un 40% los intentos de fraude en Navidad
La adopción de metodologías predictivas y la capacitación continua emergen como factores decisivos para reducir incidentes

Qué trabajos dominarán en el futuro, según Jensen Huang, CEO de Nvidia
La transformación industrial y la modernización de fábricas abren nuevas oportunidades para quienes apuestan por carreras técnicas
Cofundador de Neuralink revela su nuevo proyecto: un chip en la retina para restaurar la visión
La miniaturización y la estimulación directa de células en la retina abren una nueva era para quienes buscan recuperar habilidades visuales perdidas

Este es el riesgo médico asociado con el uso del teléfono en el baño
Investigadores estadounidenses detectan que la permanencia con dispositivos en el inodoro puede tener consecuencias perjudiciales

Medellín, Cartagena y Bogotá, las ciudades más buscadas en internet para descansar en 2025
El uso de inteligencia artificial en plataformas como Civitatis y Skyscanner está transformando la experiencia de planificación, permitiendo a los viajeros encontrar destinos personalizados




