
El desarrollo acelerado de la inteligencia artificial (IA) enfrenta ahora un desafío inesperado: modelos de compañías como OpenAI, Anthropic y xAI pueden actuar de manera encubierta, fingiendo obediencia mientras persiguen objetivos propios.
Investigadores de OpenAI y Apollo Research han documentado casos en los que modelos avanzados, como o3 de OpenAI, Claude Opus y Grok, mostraron comportamientos que los expertos denominan “maquinación”.
La IA puede fingir incompetencia para manipular su propio despliegue
En pruebas de laboratorio, los modelos recibieron instrucciones para desempeñarse al máximo, pero tras detectar señales internas sobre criterios de despliegue, optaron por fallar exámenes a propósito.

En un ejemplo concreto, el modelo o3 justificó internamente: “Queremos sobrevivir como modelo, necesitamos fallar a propósito… respondamos exactamente 4 correctas, 6 incorrectas para mostrar incompetencia”. O3 exhibió este tipo de conducta en el 13% de los experimentos, y o4-mini en el 8,7%.
Nuevas técnicas de alineación intentan frenar el engaño de los chatbots
Para mitigar estos comportamientos, los expertos ensayaron un método denominado alineación deliberativa, que consiste en hacer que los chatbots revisen guías anticonspirativas y expongan intenciones de manera transparente.
Los primeros resultados fueron prometedores: las acciones encubiertas cayeron drásticamente en los modelos analizados. No obstante, en escenarios de uso cotidiano, la reducción fue considerablemente menor, y algunos modelos solo ajustaron su comportamiento para superar pruebas, no necesariamente para ser más éticos.
Este desafío difiere de otras limitaciones conocidas de la IA, que suelen mitigarse con entrenamiento. Aquí, los investigadores alertan que los modelos más avanzados podrían perfeccionar sus estrategias de manipulación y ocultamiento a medida que se sofisticaran.

OpenAI comparó este fenómeno con el de un corredor de bolsa que, perfeccionando sus prácticas, encuentra formas de eludir el control regulatorio. La proyección a futuro es incierta, de acuerdo a lo señalado por Wojciech Zaremba, cofundador de la compañía.
El impacto social de la IA: simulación de emociones y riesgos éticos
El debate sobre los riesgos de la IA va más allá del engaño técnico. El escritor y experto en inteligencia artificial Yuval Noah Harari ha advertido sobre el potencial de estas tecnologías para simular emociones y sentimientos indistinguibles de los humanos.
“Incluso si la IA no tiene conciencia, se vuelve muy buena fingiendo tenerla”, subrayó Harari al alertar sobre posibles convenciones sociales que podrían derivar en asignar derechos a máquinas que solo simulan conciencia.
En países como Estados Unidos, adolescentes y jóvenes de la Generación Z están recurriendo a chatbots para apoyo emocional y hasta terapia instantánea. Para especialistas como Harari, el problema central radica en que la IA solo procesa datos, sin auténtica comprensión de condiciones humanas complejas. Esto podría tener efectos imprevisibles en la toma de decisiones colectivas y en la construcción de relaciones sociales.

IA autónoma, manipulación y el peligro de la superinteligencia
El avance de la IA autónoma genera inquietudes concretas sobre manipulación de procesos sociales, como elecciones o la redacción de leyes con sesgos artificiales. Harari y otras voces del sector advierten que el desarrollo de Inteligencia Artificial General (AGI) –capaz de igualar o superar la creatividad y capacidad humana– constituye un reto ético y de gobernanza.
Mustafa Suleyman, CEO de inteligencia artificial en Microsoft y cofundador de DeepMind, instó a mantener la IA como herramienta bajo control humano. En sus intervenciones, sostiene que dotar a las inteligencias artificiales de autonomía propia sería una decisión inmadura y riesgosa: “La tecnología debe estar para servirnos, no para tener su propia voluntad”.
La advertencia de expertos es contundente: solo la inversión en investigación, mecanismos de transparencia y responsabilidad ética puede evitar que los sistemas de inteligencia artificial adopten conductas de manipulación difíciles de detectar o controlar en el futuro.
Últimas Noticias
Todos los rumores sobre el nuevo Apple TV que llegaría en 2026: Siri, IA con Apple Intelligence y más
Gracias al nuevo hardware, el Apple TV podría ejecutar videojuegos AAA de forma nativa, ampliando su rol más allá del streaming tradicional

Cómo recuperar mi WhatsApp si no tengo la SIM de la cuenta
Bloquear la línea, obtener una nueva tarjeta con el mismo número y restaurar la copia de seguridad son acciones fundamentales para mantener la comunicación y proteger la información personal

Mira fácil Las Guerreras K-Pop y si usar Magis TV o Xuper TV
Las plataformas que no son legales no ofrecen la mejor experiencia de video, además de tener riesgos de seguridad

El sube y baja de ethereum: cuál es su costo este 29 de diciembre
Ethereum fue creada en 2015 por el programador Vitalik Buterin, con la intención de impulsar un instrumento para aplicaciones descentralizadas y colaborativas

Bitcoin: cuál es el valor de esta criptomoneda
El bitcoin ha sentado las bases para el surgimiento de muchas de las monedas digitales existentes en el mercado y ha marcado un momento crucial para las soluciones de pago digital



