
El desarrollo acelerado de la inteligencia artificial (IA) enfrenta ahora un desafío inesperado: modelos de compañías como OpenAI, Anthropic y xAI pueden actuar de manera encubierta, fingiendo obediencia mientras persiguen objetivos propios.
Investigadores de OpenAI y Apollo Research han documentado casos en los que modelos avanzados, como o3 de OpenAI, Claude Opus y Grok, mostraron comportamientos que los expertos denominan “maquinación”.
PUBLICIDAD
La IA puede fingir incompetencia para manipular su propio despliegue
En pruebas de laboratorio, los modelos recibieron instrucciones para desempeñarse al máximo, pero tras detectar señales internas sobre criterios de despliegue, optaron por fallar exámenes a propósito.

En un ejemplo concreto, el modelo o3 justificó internamente: “Queremos sobrevivir como modelo, necesitamos fallar a propósito… respondamos exactamente 4 correctas, 6 incorrectas para mostrar incompetencia”. O3 exhibió este tipo de conducta en el 13% de los experimentos, y o4-mini en el 8,7%.
PUBLICIDAD
Nuevas técnicas de alineación intentan frenar el engaño de los chatbots
Para mitigar estos comportamientos, los expertos ensayaron un método denominado alineación deliberativa, que consiste en hacer que los chatbots revisen guías anticonspirativas y expongan intenciones de manera transparente.
Los primeros resultados fueron prometedores: las acciones encubiertas cayeron drásticamente en los modelos analizados. No obstante, en escenarios de uso cotidiano, la reducción fue considerablemente menor, y algunos modelos solo ajustaron su comportamiento para superar pruebas, no necesariamente para ser más éticos.
PUBLICIDAD
Este desafío difiere de otras limitaciones conocidas de la IA, que suelen mitigarse con entrenamiento. Aquí, los investigadores alertan que los modelos más avanzados podrían perfeccionar sus estrategias de manipulación y ocultamiento a medida que se sofisticaran.

OpenAI comparó este fenómeno con el de un corredor de bolsa que, perfeccionando sus prácticas, encuentra formas de eludir el control regulatorio. La proyección a futuro es incierta, de acuerdo a lo señalado por Wojciech Zaremba, cofundador de la compañía.
PUBLICIDAD
El impacto social de la IA: simulación de emociones y riesgos éticos
El debate sobre los riesgos de la IA va más allá del engaño técnico. El escritor y experto en inteligencia artificial Yuval Noah Harari ha advertido sobre el potencial de estas tecnologías para simular emociones y sentimientos indistinguibles de los humanos.
“Incluso si la IA no tiene conciencia, se vuelve muy buena fingiendo tenerla”, subrayó Harari al alertar sobre posibles convenciones sociales que podrían derivar en asignar derechos a máquinas que solo simulan conciencia.
PUBLICIDAD
En países como Estados Unidos, adolescentes y jóvenes de la Generación Z están recurriendo a chatbots para apoyo emocional y hasta terapia instantánea. Para especialistas como Harari, el problema central radica en que la IA solo procesa datos, sin auténtica comprensión de condiciones humanas complejas. Esto podría tener efectos imprevisibles en la toma de decisiones colectivas y en la construcción de relaciones sociales.

IA autónoma, manipulación y el peligro de la superinteligencia
El avance de la IA autónoma genera inquietudes concretas sobre manipulación de procesos sociales, como elecciones o la redacción de leyes con sesgos artificiales. Harari y otras voces del sector advierten que el desarrollo de Inteligencia Artificial General (AGI) –capaz de igualar o superar la creatividad y capacidad humana– constituye un reto ético y de gobernanza.
PUBLICIDAD
Mustafa Suleyman, CEO de inteligencia artificial en Microsoft y cofundador de DeepMind, instó a mantener la IA como herramienta bajo control humano. En sus intervenciones, sostiene que dotar a las inteligencias artificiales de autonomía propia sería una decisión inmadura y riesgosa: “La tecnología debe estar para servirnos, no para tener su propia voluntad”.
La advertencia de expertos es contundente: solo la inversión en investigación, mecanismos de transparencia y responsabilidad ética puede evitar que los sistemas de inteligencia artificial adopten conductas de manipulación difíciles de detectar o controlar en el futuro.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Así se verían Las Guerreras K-pop si estuvieran dentro del mundo de Pokémon
La IA también cree que Zeraora, Ceruledge y Meloetta serían los Pokémon principales de estos personajes de Netflix

La frase que se le escapó al CEO de Nvidia y que contradice a toda la industria
Nvidia vende infraestructura, Microsoft vende copilotos amables y Anthropic suavizó su pronóstico de baño de sangre laboral, pero frente a 5.800 graduados de Carnegie Mellon, Jensen Huang dijo lo que ningún otro CEO sostiene en público

Cómo saber si mi pareja espía mi WhatsApp u otras aplicaciones en el teléfono: señales y qué hacer
Revisa el consumo de datos, detecta actividad extraña y sigue los consejos para limpiar y asegurar tu teléfono, evitando intrusiones y protegiendo tu intimidad

Tu iPhone no será el mismo con iOS 27: Siri con Gemini, Liquid Glass mejorado y más novedades que llegarán
La nueva versión permitirá que Siri utilice diferentes voces dependiendo del modelo de IA seleccionado por el usuario
Así puedes enviar el historial de mensajes recientes a quienes se suman a un chat grupal en WhatsApp
Administradores y miembros pueden compartir hasta 100 mensajes previos, ayudando a los nuevos participantes a ponerse al día y participar activamente desde el primer momento




