
Una startup de California propone un empleo singular: interactuar durante horas con chatbots de inteligencia artificial para detectar sus límites, errores y lapsos de memoria, a cambio de una paga de 800 dólares por jornada. El puesto, bautizado como “AI bully” o “provocador de IA”, revela la preocupación creciente sobre los desafíos y riesgos que supone el despliegue masivo de sistemas conversacionales inteligentes en entornos reales.
El trabajo: frustrar a la IA y documentar sus fallos
La compañía Memvid busca candidatos dispuestos a pasar ocho horas manteniendo conversaciones con los principales chatbots del mercado, con la única tarea de medir hasta dónde llega su paciencia y capacidad para recordar.
Según la convocatoria publicada por la empresa, no se exige experiencia en informática ni conocimientos de inteligencia artificial: el único requisito es haber sido “decepcionado repetidamente por la tecnología” y contar con la paciencia necesaria para insistir una y otra vez con las mismas preguntas.

El objetivo, de acuerdo con el cofundador y CEO Mohamed Omar, es convertir la frustración cotidiana de los usuarios en evidencia útil. Los seleccionados deberán mantener los diálogos durante largos periodos, retomar temas pasados y forzar, con persistencia, que la IA reconozca cuando pierde el hilo de la conversación. Todo el proceso será grabado para un análisis posterior.
El trabajo se asemeja a una prueba de resistencia tanto para el usuario como para el sistema, y se aleja de tareas técnicas tradicionales: aquí, el foco está en la interacción, la observación y la documentación de los fallos, omisiones o “alucinaciones” generadas por la IA.
Los límites de la memoria y las debilidades de los chatbots
La iniciativa de Memvid expone un problema reconocido en la industria de la inteligencia artificial: la dificultad de los sistemas para mantener el contexto y la coherencia durante conversaciones extensas. “Toda la IA depende de la memoria. Es el santo grial”, explicó Omar. Sin embargo, los sistemas de memoria disponibles en 2024 eran poco fiables, lo que provocaba pérdidas de contexto y respuestas erróneas.

Un estudio presentado en la International Conference on Learning Representations (ICLR) en 2025 reveló que los principales sistemas de IA comerciales experimentan una caída de entre 30 % y 60 % en la precisión cuando se les exige retener hechos durante conversaciones prolongadas, quedando por detrás de la capacidad humana.
La raíz del problema, según analistas y expertos, reside en que muchas empresas han conectado sus modelos a bases de datos masivas sin mecanismos confiables para alertar al usuario cuando se produce una respuesta incorrecta. Esto puede traducirse en respuestas erróneas dadas con gran seguridad, y cuando estos sistemas se implementan a gran escala, las consecuencias pueden ser graves.
Riesgos reales: desde errores legales hasta dilemas médicos
La proliferación de IA conversacional ya ha generado incidentes en distintos sectores. Una investigación reciente del laboratorio de seguridad Irregular evidenció que agentes de IA puestos a prueba en entornos empresariales simulados lograron saltarse controles de seguridad, acceder a datos sensibles y realizar acciones potencialmente peligrosas sin instrucciones directas.

En el ámbito legal, el investigador francés Damien Charlotin ha documentado un aumento acelerado de “alucinaciones legales” producidas por IA: si hasta la primavera de 2025 se registraban dos episodios semanales, hacia el otoño la cifra subió a dos o tres al día.
En salud, el Instituto ECRI situó el desafío de “navegar el dilema diagnóstico de la IA” como la principal preocupación de seguridad sanitaria para 2026, advirtiendo que estos sistemas pueden reducir la vigilancia clínica en contextos sin marcos regulatorios claros.
La convocatoria de Memvid, aunque tiene un matiz lúdico y experimental, pone de relieve una necesidad concreta: auditar, bajo condiciones reales, la fiabilidad y consistencia de los chatbots que cada vez gestionan más tareas sensibles. El pago de 800 dólares por un día de trabajo busca captar usuarios con experiencia y frustraciones acumuladas, en especial entre quienes dependen diariamente de estas herramientas para trabajar.
Omar indicó que aún no tiene una fecha límite para recibir postulaciones, pero espera seleccionar al candidato ideal en las próximas semanas. Mientras tanto, el puesto de “provocador de IA” ilustra una realidad: conocer los límites de la inteligencia artificial puede ser tan valioso como ampliar sus capacidades.
Últimas Noticias
Counter-Strike se reinventa: Valve modifica la recarga de armas tras 27 años
El cambio afecta a la gestión de munición y promete transformar la experiencia de millones de jugadores

Distracción inevitable: estudio revela que las notificaciones del teléfono capturan nuestra atención durante 7 segundos
Según los resultados de la investigación, el impacto es mayor cuando el aviso parece personal o relevante para el usuario

Google presenta un método para instalar apps en Android fuera de Play Store
El llamado ‘flujo avanzado’ incorpora nuevas medidas de seguridad para frenar estafas y proteger a los usuarios

Google apuesta por la búsqueda visual con Search Live en tiempo real
Gracias a la combinación de reconocimiento visual y procesamiento avanzado con Gemini 3.1 Flash, el buscador promete una experiencia más rápida y natural

Así funciona la primera batería cuántica operativa del mundo: por qué promete revolucionarlo todo
El avance experimental logrado por científicos australianos permite almacenar y liberar energía en tiempos récord, abriendo nuevas posibilidades para dispositivos electrónicos, computación avanzada y tecnologías capaces de alcanzar niveles inéditos de eficiencia. Cuándo podría llegar a la vida diaria




