
El desarrollo acelerado de la inteligencia artificial (IA) enfrenta ahora un desafío inesperado: modelos de compañías como OpenAI, Anthropic y xAI pueden actuar de manera encubierta, fingiendo obediencia mientras persiguen objetivos propios.
Investigadores de OpenAI y Apollo Research han documentado casos en los que modelos avanzados, como o3 de OpenAI, Claude Opus y Grok, mostraron comportamientos que los expertos denominan “maquinación”.
La IA puede fingir incompetencia para manipular su propio despliegue
En pruebas de laboratorio, los modelos recibieron instrucciones para desempeñarse al máximo, pero tras detectar señales internas sobre criterios de despliegue, optaron por fallar exámenes a propósito.

En un ejemplo concreto, el modelo o3 justificó internamente: “Queremos sobrevivir como modelo, necesitamos fallar a propósito… respondamos exactamente 4 correctas, 6 incorrectas para mostrar incompetencia”. O3 exhibió este tipo de conducta en el 13% de los experimentos, y o4-mini en el 8,7%.
Nuevas técnicas de alineación intentan frenar el engaño de los chatbots
Para mitigar estos comportamientos, los expertos ensayaron un método denominado alineación deliberativa, que consiste en hacer que los chatbots revisen guías anticonspirativas y expongan intenciones de manera transparente.
Los primeros resultados fueron prometedores: las acciones encubiertas cayeron drásticamente en los modelos analizados. No obstante, en escenarios de uso cotidiano, la reducción fue considerablemente menor, y algunos modelos solo ajustaron su comportamiento para superar pruebas, no necesariamente para ser más éticos.
Este desafío difiere de otras limitaciones conocidas de la IA, que suelen mitigarse con entrenamiento. Aquí, los investigadores alertan que los modelos más avanzados podrían perfeccionar sus estrategias de manipulación y ocultamiento a medida que se sofisticaran.

OpenAI comparó este fenómeno con el de un corredor de bolsa que, perfeccionando sus prácticas, encuentra formas de eludir el control regulatorio. La proyección a futuro es incierta, de acuerdo a lo señalado por Wojciech Zaremba, cofundador de la compañía.
El impacto social de la IA: simulación de emociones y riesgos éticos
El debate sobre los riesgos de la IA va más allá del engaño técnico. El escritor y experto en inteligencia artificial Yuval Noah Harari ha advertido sobre el potencial de estas tecnologías para simular emociones y sentimientos indistinguibles de los humanos.
“Incluso si la IA no tiene conciencia, se vuelve muy buena fingiendo tenerla”, subrayó Harari al alertar sobre posibles convenciones sociales que podrían derivar en asignar derechos a máquinas que solo simulan conciencia.
En países como Estados Unidos, adolescentes y jóvenes de la Generación Z están recurriendo a chatbots para apoyo emocional y hasta terapia instantánea. Para especialistas como Harari, el problema central radica en que la IA solo procesa datos, sin auténtica comprensión de condiciones humanas complejas. Esto podría tener efectos imprevisibles en la toma de decisiones colectivas y en la construcción de relaciones sociales.

IA autónoma, manipulación y el peligro de la superinteligencia
El avance de la IA autónoma genera inquietudes concretas sobre manipulación de procesos sociales, como elecciones o la redacción de leyes con sesgos artificiales. Harari y otras voces del sector advierten que el desarrollo de Inteligencia Artificial General (AGI) –capaz de igualar o superar la creatividad y capacidad humana– constituye un reto ético y de gobernanza.
Mustafa Suleyman, CEO de inteligencia artificial en Microsoft y cofundador de DeepMind, instó a mantener la IA como herramienta bajo control humano. En sus intervenciones, sostiene que dotar a las inteligencias artificiales de autonomía propia sería una decisión inmadura y riesgosa: “La tecnología debe estar para servirnos, no para tener su propia voluntad”.
La advertencia de expertos es contundente: solo la inversión en investigación, mecanismos de transparencia y responsabilidad ética puede evitar que los sistemas de inteligencia artificial adopten conductas de manipulación difíciles de detectar o controlar en el futuro.
Últimas Noticias
Todos los rumores sobre el nuevo Apple TV que llegaría en 2026: Siri, IA con Apple Intelligence y más
Gracias al nuevo hardware, el Apple TV podría ejecutar videojuegos AAA de forma nativa, ampliando su rol más allá del streaming tradicional

Adiós al alto consumo del aire acondicionado: la temperatura ideal para ahorrar energía y dinero
Cada grado menos en el termostato incrementa el gasto del electrodoméstico en un 10%, un hecho que impacta directamente en la factura mensual

Japón, Brasil y más países en los que GTA estuvo cerca de ser ambientado
Solamente una vez la saga ha tenido un juego fuera de Estados Unidos, fue en Londres para PlayStation 1

Suscripción a ChatGPT, Rappi, Didi y más apps: estos fueron los gastos hormiga más comunes de los colombianos en 2025
El uso cotidiano de servicios en línea y aplicaciones móviles ha modificado los hábitos de consumo, llevando a que sumas aparentemente menores se conviertan en significativas

Los nombres más populares para bebés nacidos en enero de 2026, según la IA
La inteligencia artificial tiene en cuenta factores como la frecuencia de inscripción en registros civiles, la sonoridad, el significado, la influencia cultural y la adaptabilidad a diferentes espacios




