Los empleados ya decidieron qué IA utilizan en sus empresas, mientras los directorios aún siguen debatiéndolo

El 29% sabotea activamente la estrategia oficial y el 90% usa herramientas personales por fuera del control corporativo: la economía de IA en la sombra no es resistencia, es la primera respuesta organizada del trabajo del conocimiento a la imposición sin estrategia

Guardar
Ilustración de collage digital: mano sostiene cables de donde emergen logos de ChatGPT y Claude; ejecutivos en silueta observan pantallas rojas con gráficos de advertencia.
La brecha entre las estrategias oficiales y el uso real de IA genera una infraestructura paralela en las compañías, con riesgos y oportunidades para la productividad. (Imagen Ilustrativa Infobae)

El 7 de abril, la plataforma de IA empresarial WRITER publicó la segunda edición anual de su encuesta AI Adoption in the Enterprise, hecha junto a la consultora independiente Workplace Intelligence. Encuestaron a 2.400 trabajadores del conocimiento: 1.200 ejecutivos y 1.200 empleados, en seis países entre Estados Unidos y Europa, en empresas de 100 a más de 10.000 empleados, 30 industrias.

El dato que abre el reporte rompe el relato corporativo dominante. El 29% de los empleados admite sabotear activamente la estrategia de IA de su empresa. Entre Gen Z, el 44%. El 76% de los ejecutivos reconoce que el sabotaje interno es una amenaza seria para el futuro de su organización. El 67% cree que su empresa ya sufrió una filtración de datos por uso de herramientas no aprobadas. Esto no es resistencia al cambio. Es desobediencia organizada.

PUBLICIDAD

Las cuatro formas del sabotaje

WRITER preguntó cómo se ejerce el sabotaje. Las respuestas dibujan un patrón. Cargar información corporativa en herramientas públicas no autorizadas. Usar aplicaciones por fuera del conjunto de herramientas aprobadas. Generar deliberadamente resultados de baja calidad para que la IA quede mal. Negarse a usar las herramientas mandatadas.

El reporte de MIT NANDA The GenAI Divide, publicado en julio de 2025, llegó al mismo lugar por otro camino. El 90% de los empleados encuestados usa herramientas personales de IA como ChatGPT o Claude para tareas laborales, mientras solo el 40% de las empresas tiene suscripciones oficiales. Hay una economía de IA en la sombra que opera por debajo del radar gerencial. Los empleados ya están usando la tecnología. Pero no la que la empresa eligió, ni en los términos que la empresa fijó.

PUBLICIDAD

La confianza del empleado en la estrategia de IA de su empresa cayó del 47% en 2025 al 31% en 2026. En un año, casi la mitad de los trabajadores que confiaba en sus líderes para conducir la transformación dejó de hacerlo.

Ilustración plana de dos personas sentadas: una usa un PC con logo 'IA' y la otra un portátil con ChatGPT enviando datos a una nube oscura, con flechas entre ambos.
La brecha entre las estrategias oficiales y el uso real de IA genera una infraestructura paralela en las compañías, con riesgos y oportunidades para la productividad. (Imagen Ilustrativa Infobae)

Por qué la respuesta es racional

El sabotaje suele leerse desde arriba como problema cultural. Los datos lo describen como respuesta lógica a un sistema mal diseñado. El 75% de los ejecutivos admite que la estrategia de IA de su empresa es “más para mostrar” que guía real. El 39% no tiene un plan formal para generar ingresos con IA. El 54% dice que la adopción está partiendo a su organización. El 56% reporta luchas de poder internas. El 38% de los CEOs reporta estrés alto o paralizante por la presión de mostrar resultados.

El dato más duro está en el cruce. El 60% de las empresas planea despedir empleados que no adopten IA. El 77% no promueve a quien se niegue a aprenderla. Pero solo el 29% de los ejecutivos ve retorno significativo de IA generativa, y el 23% lo ve en agentes. La amenaza se ejecuta sin tener resuelto el caso de uso. El empleado recibe la presión de adoptar una herramienta cuya rentabilidad la propia empresa no logró demostrar. Ante eso, el sabotaje no es traición: es protección personal contra una decisión gerencial sin fundamento.

El reporte MIT pone el monto. Las empresas invirtieron entre USD 30.000 y USD 40.000 millones en IA generativa, y el 95% de los pilots no produce impacto medible en estado de resultados. Cuando las empresas compran soluciones a proveedores externos, el éxito ronda el 67%. Cuando intentan construir su propia herramienta, cae a un tercio. El instinto corporativo ha sido construir adentro, y la mayoría falla.

Ilustración de cinco personas en una oficina con fondo azul claro, sentadas y de pie, usando laptops y tabletas, rodeadas de burbujas de diálogo e íconos digitales.
Empleados utilizan herramientas de inteligencia artificial por fuera del control corporativo, mientras los directorios intentan definir políticas de adopción. (Imagen Ilustrativa Infobae)

El costo que ya está sobre la mesa

La economía en la sombra tiene precio. El 67% de los ejecutivos cree que su empresa ya sufrió una filtración de datos por uso de herramientas no aprobadas. El 35% admite que no podría apagar de inmediato un agente de IA descontrolado si empezara a causar daño financiero o reputacional. La infraestructura paralela construida por los empleados desde sus dispositivos personales no tiene los controles de seguridad que la empresa exige a su infraestructura oficial. Es eficiente para producir, frágil para gobernar.

El choque entre velocidad de adopción individual y gobernanza corporativa va a definir los próximos veinticuatro meses. El empleado que usa ChatGPT desde su cuenta personal es más productivo que el que espera la suscripción oficial. La empresa que no resuelve cómo integrar esa productividad la ve filtrarse en forma de datos expuestos, decisiones tomadas por fuera de la cadena formal y dependencia de modelos que no eligió ni audita.

La adopción de IA empresarial dejó de ser un proyecto que los CEOs aprueban arriba y se baja a los equipos. Los empleados ya tomaron su decisión. Usan las herramientas que les sirven, ignoran las que no, y construyen una infraestructura paralela que ningún memo gerencial va a desarmar. La pregunta para los directorios ya no es cómo convencer a la gente de adoptar IA. Es cómo recuperar el control sobre una adopción que se hizo sin pedirles permiso.

PUBLICIDAD

PUBLICIDAD

Últimas Noticias

El Congreso de Estados Unidos aprobó un financiamiento parcial para el Departamento de Seguridad Nacional tras 75 días de cierre

La aprobación despeja el camino para normalizar operaciones de agencias federales como FEMA, Guardia Costera y TSA, mientras se mantienen bloqueadas nuevas partidas para inmigración y control fronterizo

El Congreso de Estados Unidos aprobó un financiamiento parcial para el Departamento de Seguridad Nacional tras 75 días de cierre

Elon Musk denuncia en audiencia que OpenAI incumplió su misión de transparencia y sin fines de lucro

El empresario subrayó ante el tribunal que la compañía transformó su modelo y se alejó de los valores que inspiraron su fundación, centrada en la apertura científica

Elon Musk denuncia en audiencia que OpenAI incumplió su misión de transparencia y sin fines de lucro

Millones de trámites migratorios en EEUU se retrasan por controles de seguridad federales

La medida impacta solicitudes de residencia permanente, ciudadanía, asilo y permisos laborales mientras se amplían las verificaciones de antecedentes

Millones de trámites migratorios en EEUU se retrasan por controles de seguridad federales

Las autoridades de Guatemala definen acciones preventivas ante escasez de lluvias en municipios vulnerables

El plan presentado durante la reunión del Consejo Nacional de Seguridad Alimentaria y Nutricional establece una intervención temprana en municipios con riesgo climático, priorizando la protección de seguridad alimentaria a través de la coordinación interinstitucional y el apoyo internacional

Las autoridades de Guatemala definen acciones preventivas ante escasez de lluvias en municipios vulnerables

Continúan las alertas: Los ciberataques simultáneos vulneran plataformas oficiales y exponen credenciales administrativas en Guatemala

Las investigaciones revelan que varias entidades públicas enfrentan amenazas persistentes luego de que los agresores lograron controlar portales críticos, alterando funciones operativas y publicando datos de acceso en canales abiertos de internet

Continúan las alertas: Los ciberataques simultáneos vulneran plataformas oficiales y exponen credenciales administrativas en Guatemala