
La irrupción de la inteligencia artificial en el ámbito laboral se ha visto como una amenaza para muchos puestos de trabajo, aunque al mismo tiempo ha sido una oportunidad para generar una demanda de empleados que solucionen los errores causados por estos sistemas.
Estudios como el de The Agent Company, demuestran que los agentes de IA no son infalibles, ya que encontraron que durante la realización de tareas complejas la tasa de error es del 70%, por lo que el factor humano sigue siendo fundamental y aquellas empresas que optaron por despedir empleados para ahorrar recursos, ahora deben incorporar expertos para corregir problemas.
Cómo la corrección de la IA está siendo la tendencia laboral
La especialista británica Sophie Warner, copropietaria de la agencia Create Designs, relata que durante los últimos meses aumentaron las urgencias de clientes que, tras delegar en IA las tareas de su web, enfrentaron fallos críticos.
“Antes los clientes nos contactaban por dudas habituales o por implementar nuevas funcionalidades”, explicó Warner a la BCC, pero desde el auge de ChatGPT esta tendencia cambió radicalmente. Ahora el primer recurso de muchos clientes es pedir ayuda a los sistemas de IA antes que consultar a un desarrollador o diseñador.

Según ella, el problema radica en la confianza excesiva de usuarios inexpertos en estas herramientas.
Por ejemplo, cuenta el caso un cliente suyo que optó por recurrir a ChatGPT para actualizar la página de eventos de su web, actividad que le habría ocupado apenas 15 minutos si la hubiese realizado manualmente.
El resultado: la web colapsó, la empresa perdió operatividad durante tres días y la factura para reparar el desperfecto ascendió a aproximadamente a casi 500 dólares. Lo que parecía un ahorro inmediato se transformó en un monto mucho mayor y una pérdida de reputación comercial.
Cómo las empresas pagan más por corregir errores de la IA
La demanda de especialistas en “reparación de IA” se disparó en el último año. Profundizar en las causas de estos fallos requiere pericias técnicas y experiencia editorial, lo que multiplica las tarifas.

“A menudo tenemos que cobrar una tarifa de investigación para averiguar qué ha fallado”, detalla Warner, “y el proceso de corregir estos errores lleva mucho más tiempo que si se hubiera consultado a profesionales desde el principio”.
La estadounidense Sarah Skidd, gerente de marketing de producto y redactora para el sector tecnológico, experimentó este fenómeno de primera mano. Fue contactada por una agencia para reescribir de urgencia los textos de un sitio web hotelero generados por IA.
El material entregado por el sistema se percibía genérico y desprovisto de atractivo comercial. Ante esa situación, Skidd invirtió unas 20 horas rehaciendo todo el contenido y cobró 100 dólares la hora. El trabajo no consistió en ajustes menores, sino en una reconstrucción integral del mensaje.
Skidd asegura que este patrón se repite en numerosos encargos y que conoce colegas cuya labor consiste actualmente, en un 90%, en reparar textos producidos de manera automática.

Lejos de temer por su futuro laboral frente al avance de la IA, considera que los profesionales calificados seguirán siendo indispensables para garantizar calidad y coherencia.
Su caso y el testimonio de otros trabajadores del sector muestran que las habilidades humanas —el criterio analítico, la creatividad y la interpretación del contexto— resultan imposibles de suplir de momento mediante herramientas autómatas.
Cuáles son los errores que está cometiendo la IA
Uno de los errores más frecuentes de los generadores automáticos reside en la incapacidad de captar matices y adaptar el mensaje a la identidad de marca, el público objetivo y los objetivos de conversión.
Al respecto, el profesor Feng Li, decano asociado de investigación en la Escuela de Negocios Bayes, remarca que la IA “puede alucinar”, es decir, producir contenido irrelevante, inventado o inconsistente.

El experto destaca que la inteligencia artificial ignora la particularidad de cada negocio y termina generando un resultado genérico. Eso puede afectar negativamente la reputación de las compañías y, en ocasiones, conducir a riesgos legales o de ciberseguridad.
La tendencia afecta tanto a pequeñas compañías como a grandes empresas, que recurren a IA con la ilusión de agilizar procesos, sin considerar la necesidad de infraestructura tecnológica y supervisión humana.
El profesor Li advierte que muchas firmas se apresuraron a adoptar IA motivadas por el entusiasmo del mercado y sin evaluar correctamente si estas soluciones son adecuadas a su estructura, capacidades y objetivos. La sobreconfianza en los sistemas prefabricados acentúa la posibilidad de resultados fallidos.
Últimas Noticias
Investigadores de Google detectan a hackers rusos robando datos de usuarios de iPhone en Ucrania
Los ciberdelincuentes emplearon el malware Darksword para realizar sus ataques, en una campaña que evidencia la sofisticación y el alcance del espionaje digital en el conflicto armado

Por qué Meta desactiva el cifrado en los chats de Instagram y desde cuándo ya no estará disponible
A diferencia de WhatsApp, donde el cifrado de extremo a extremo está activado por defecto, en la red social los usuarios debían habilitar manualmente esta protección
Cómo es el sistema de computación que Nvidia quiere usar para construir centros de datos en el espacio
Con Vera Rubin Space-1, su nuevo módulo informático, la empresa busca llevar la computación de IA más allá de la Tierra
¿Mitad humano, mitad máquina? El nuevo robot que te convierte en centauro para cargar objetos pesados
A diferencia de los exoesqueletos convencionales, este sistema añade dos patas robóticas independientes que se conectan a la espalda de la persona

Construyen la primera batería cuántica del mundo: se carga más rápido cuanto más grande es
Los investigadores buscan combinar la velocidad de carga cuántica con la capacidad de almacenamiento de las baterías convencionales


