Al inicio de este 2026, Jensen Huang, director ejecutivo de Nvidia, proclamó el inicio de la era de la Inteligencia Artificial física durante un evento en Estados Unidos. Este anuncio describió un nuevo ciclo tecnológico en el que la IA trascenderá los chatbots para desplegarse en robots humanoides capaces de realizar tareas prácticas en el mundo físico.
La experiencia previa de plataformas digitales y redes sociales reveló que la integración de la IA en procesos cotidianos ha requerido la intervención oculta de trabajadores humanos para moderar contenidos y etiquetar datos, muchas veces en países de bajos ingresos. MIT Technology Review ha detallado que incluso los modelos más avanzados continúan necesitando un volumen considerable de retroalimentación humana para funcionar correctamente, una dependencia ocluida bajo discursos de autonomía total que provienen tanto del sector tecnológico como de los inversionistas.
Los líderes de la industria han comenzado a utilizar demostraciones de robots humanoides para sugerir que la automatización ha dejado atrás la simple imitación mecánica de movimientos humanos, apostando por máquinas capaces de aprender, adaptarse y razonar en tiempo real. Sin embargo, MIT Technology Review documentó numerosos casos en los que esta autonomía es más aparente que real, debido a la opacidad que rodea los procesos de entrenamiento y operación.
En Shanghai, un trabajador empleó un exoesqueleto y un visor de realidad virtual durante jornadas enteras repitiendo acciones domésticas básicas para capturar datos motores con los que entrenar a los robots. En América del Norte, la empresa Figure anunció una alianza con Brookfield, gestora de 100 mil departamentos, para registrar “cantidades masivas” de datos en cientos de entornos residenciales distintos, pero se negó a responder preguntas sobre la transparencia y el alcance de ese esfuerzo.
Los datos de movimientos humanos alimentan la nueva IA física
Así como las palabras y conversaciones de los usuarios han nutrido los grandes modelos lingüísticos, ahora sus propios movimientos y rutinas físicas son convertidos en materia prima de entrenamiento. El especialista en robótica Aaron Prather relató que una compañía de mensajería recopiló en masa datos de empleados equipados con sensores mientras manipulaban paquetes; esta información constituye la base de los algoritmos para robots humanoides más avanzados y obliga a una nueva clase de trabajo físico: el de recolector de datos.
Autonomía relativa y teleoperación remota de robots humanoides
El modelo de teleoperación aparece como solución para tareas complejas: en la empresa 1X, con sede en Palo Alto, el robot humanoide Neo se vende por USD 20.000 y, según confirmó su fundador Bernt Øivind Børnich a MIT Technology Review, depende de operadores humanos que, desde la sede central, controlan remotamente los aparatos para realizar actividades domésticas como planchar o vaciar el lavavajillas cuando la autonomía falla o el cliente lo solicita. La compañía garantiza el consentimiento de los usuarios antes del control remoto, aunque la publicación advierte una erosión inédita de la privacidad y el riesgo de que la supuesta autonomía solo maquille una nueva forma de subcontratación global del trabajo doméstico.
La combinación de tecnologías de teleoperación y expectativas generadas en el mercado ha producido distorsiones peligrosas. Cuando la empresa Tesla promocionó su sistema de asistencia de conducción como “Autopilot”, ocultó el grado de intervención humana requerido y alimentó percepciones exageradas sobre la seguridad y las capacidades autónomas, lo que desembocó en demandas legales. Un jurado en Miami, Estados Unidos, dictaminó recientemente una indemnización de USD 240 millones por un accidente mortal vinculado a estas prácticas promocionales.
Un precedente adicional surgió cuando la startup 1X anunció que planeaba el envío de sus primeros robots domésticos en 2024, pero su fundador admitió que aún no estaba fijado ningún nivel específico de autonomía para los dispositivos.