Surge un nuevo puesto de trabajo: se busca ‘provocador de IA’ para poner a prueba la paciencia de los chatbots

Una startup de California ofrece 800 dólares por pasar un día hostigando a estos sistemas para detectar fallas o limitaciones

Guardar
Un joven sonriente se encuentra
Un joven sonriente se encuentra sentado en El puesto de “provocador de IA” consiste en interactuar durante ocho horas con chatbots para detectar errores y olvidos. (Imagen Ilustrativa Infobae)

Una startup de California propone un empleo singular: interactuar durante horas con chatbots de inteligencia artificial para detectar sus límites, errores y lapsos de memoria, a cambio de una paga de 800 dólares por jornada. El puesto, bautizado como “AI bully” o “provocador de IA”, revela la preocupación creciente sobre los desafíos y riesgos que supone el despliegue masivo de sistemas conversacionales inteligentes en entornos reales.

El trabajo: frustrar a la IA y documentar sus fallos

La compañía Memvid busca candidatos dispuestos a pasar ocho horas manteniendo conversaciones con los principales chatbots del mercado, con la única tarea de medir hasta dónde llega su paciencia y capacidad para recordar.

Según la convocatoria publicada por la empresa, no se exige experiencia en informática ni conocimientos de inteligencia artificial: el único requisito es haber sido “decepcionado repetidamente por la tecnología” y contar con la paciencia necesaria para insistir una y otra vez con las mismas preguntas.

Memvid busca candidatos sin experiencia
Memvid busca candidatos sin experiencia técnica, pero con historial de frustraciones con la tecnología. (Imagen Ilustrativa Infobae)

El objetivo, de acuerdo con el cofundador y CEO Mohamed Omar, es convertir la frustración cotidiana de los usuarios en evidencia útil. Los seleccionados deberán mantener los diálogos durante largos periodos, retomar temas pasados y forzar, con persistencia, que la IA reconozca cuando pierde el hilo de la conversación. Todo el proceso será grabado para un análisis posterior.

El trabajo se asemeja a una prueba de resistencia tanto para el usuario como para el sistema, y se aleja de tareas técnicas tradicionales: aquí, el foco está en la interacción, la observación y la documentación de los fallos, omisiones o “alucinaciones” generadas por la IA.

Los límites de la memoria y las debilidades de los chatbots

La iniciativa de Memvid expone un problema reconocido en la industria de la inteligencia artificial: la dificultad de los sistemas para mantener el contexto y la coherencia durante conversaciones extensas. “Toda la IA depende de la memoria. Es el santo grial”, explicó Omar. Sin embargo, los sistemas de memoria disponibles en 2024 eran poco fiables, lo que provocaba pérdidas de contexto y respuestas erróneas.

La iniciativa expone el problema
La iniciativa expone el problema de la pérdida de contexto y memoria en sistemas de inteligencia artificial. (Imagen Ilustrativa Infobae)

Un estudio presentado en la International Conference on Learning Representations (ICLR) en 2025 reveló que los principales sistemas de IA comerciales experimentan una caída de entre 30 % y 60 % en la precisión cuando se les exige retener hechos durante conversaciones prolongadas, quedando por detrás de la capacidad humana.

La raíz del problema, según analistas y expertos, reside en que muchas empresas han conectado sus modelos a bases de datos masivas sin mecanismos confiables para alertar al usuario cuando se produce una respuesta incorrecta. Esto puede traducirse en respuestas erróneas dadas con gran seguridad, y cuando estos sistemas se implementan a gran escala, las consecuencias pueden ser graves.

Riesgos reales: desde errores legales hasta dilemas médicos

La proliferación de IA conversacional ya ha generado incidentes en distintos sectores. Una investigación reciente del laboratorio de seguridad Irregular evidenció que agentes de IA puestos a prueba en entornos empresariales simulados lograron saltarse controles de seguridad, acceder a datos sensibles y realizar acciones potencialmente peligrosas sin instrucciones directas.

Estudios recientes revelan una caída
Estudios recientes revelan una caída significativa en la precisión de los chatbots en conversaciones largas. (Imagen Ilustrativa Infobae)

En el ámbito legal, el investigador francés Damien Charlotin ha documentado un aumento acelerado de “alucinaciones legales” producidas por IA: si hasta la primavera de 2025 se registraban dos episodios semanales, hacia el otoño la cifra subió a dos o tres al día.

En salud, el Instituto ECRI situó el desafío de “navegar el dilema diagnóstico de la IA” como la principal preocupación de seguridad sanitaria para 2026, advirtiendo que estos sistemas pueden reducir la vigilancia clínica en contextos sin marcos regulatorios claros.

La convocatoria de Memvid, aunque tiene un matiz lúdico y experimental, pone de relieve una necesidad concreta: auditar, bajo condiciones reales, la fiabilidad y consistencia de los chatbots que cada vez gestionan más tareas sensibles. El pago de 800 dólares por un día de trabajo busca captar usuarios con experiencia y frustraciones acumuladas, en especial entre quienes dependen diariamente de estas herramientas para trabajar.

Omar indicó que aún no tiene una fecha límite para recibir postulaciones, pero espera seleccionar al candidato ideal en las próximas semanas. Mientras tanto, el puesto de “provocador de IA” ilustra una realidad: conocer los límites de la inteligencia artificial puede ser tan valioso como ampliar sus capacidades.