
La inteligencia artificial (IA) y la robótica ya no son conceptos exclusivos de laboratorios y narrativas de ciencia ficción. En su lugar, se convirtieron en ejes centrales del debate sobre el futuro de la humanidad. Durante el último episodio del podcast Huberman Lab Essentials, el neurocientífico Andrew Huberman y el científico Lex Fridman, del Instituto de Tecnología de Massachusetts (MIT), abordaron los cambios que estas tecnologías introducen en la sociedad.
Estas tecnologías modifican además las formas en que se conciben la inteligencia, la creatividad y, de manera notable, las relaciones afectivas. Ambos especialistas compartieron tanto análisis técnicos como vivencias personales y reflexiones filosóficas, aportando nuevas miradas sobre la naturaleza de los vínculos humanos en convivencia con máquinas y animales.

Definiciones claves y evolución del aprendizaje automático
La conversación se inició con una interrogante esencial: ¿qué es la inteligencia artificial y en qué se distingue del aprendizaje automático y la robótica? De acuerdo con la charla de Huberman Lab, Fridman definió la IA desde dos perspectivas: como aspiración filosófica de crear entidades inteligentes superiores al ser humano, y como conjunto de herramientas computacionales orientadas a automatizar tareas y entender mejor la mente humana.
El especialista del MIT también explicó que el campo de la IA evolucionó a través de distintas corrientes, siendo el aprendizaje automático (machine learning) uno de los enfoques más influyentes. Este método desarrolla sistemas que mejoran su desempeño a partir de la experiencia, incluso con conocimientos iniciales mínimos.
En particular, destacó los avances del aprendizaje profundo (deep learning), basado en redes neuronales artificiales capaces de aprender mediante ejemplos y replicar ciertos aspectos del aprendizaje humano.
Asimismo, entre las modalidades, el aprendizaje supervisado requiere de grandes volúmenes de datos etiquetados —como imágenes clasificadas—, mientras que el aprendizaje auto-supervisado permite que la IA extraiga patrones generalizables de datos no estructurados, como textos o imágenes sin etiquetas. Fridman comparó este proceso con el modo en que los niños desarrollan comprensión con pocos ejemplos, gracias a un conocimiento adquirido durante su crecimiento.

Aplicaciones prácticas: el modelo de Tesla Autopilot
A través de su explicación, Fridman ilustró la aplicabilidad de estos sistemas con el caso del Tesla Autopilot, una plataforma que funciona en entornos reales mediante redes neuronales y aprendizaje automático. Aunque se presenta como conducción totalmente autónoma (full self driving), aún requiere supervisión humana y la responsabilidad última recae en el conductor.
Destacó también el método llamado “data engine”, conceptualizado por Andrej Karpathy, exdirector de Autopilot. Este sistema permite que la IA se exponga a casos no previstos —denominados edge cases—, recoja datos de esos episodios y los utilice para refinar su desempeño. Este ciclo continuo de aprendizaje emula el desarrollo humano, donde los errores y los imprevistos actúan como catalizadores del crecimiento.

Interacción humano-máquina: imperfección y colaboración
Otro punto central es la dinámica de colaboración entre humanos y robots. El experto definió esta relación como una especie de “danza”, donde ambas partes, con sus imperfecciones, deben aprender a cooperar. En Huberman Lab se enfatizó que la conducción semiautónoma es un ejemplo emblemático de esta sinergia.
“El mundo va a estar lleno de problemas en los que siempre tendrán que interactuar humanos y robots, porque creo que los robots siempre van a tener defectos. Igual que los humanos, van a ser defectuosos son defectuosos y eso es lo que hace bella la vida que sean defectuosos", explicó. “Ahí es donde se produce el aprendizaje, al límite de sus capacidades”, agregó.
La imperfección no es un obstáculo, según el científico, sino una característica valiosa que impulsa el aprendizaje. En lugar de aspirar a sistemas sin errores, propuso diseñar tecnologías que maximicen la colaboración entre humanos y máquinas.
Asimismo, remarcó que los sistemas de IA requieren objetivos claramente definidos, uno de los grandes desafíos actuales, pues es necesario traducir los valores humanos en parámetros funcionales para las máquinas. “Ahí es donde ocurre el aprendizaje, en el límite de las capacidades”, afirmó Fridman.

Emociones y vínculos: ¿pueden generar apego los robots?
La dimensión emocional ocupó un espacio destacado en la charla. Andrew Huberman relató su experiencia con un robot doméstico Roomba, y cómo desarrolló sentimientos como frustración o afecto hacia él.
Por su parte, Fridman compartió un experimento donde programó varios Roombas para emitir sonidos de dolor al ser golpeados. A propósito de esto, el creador del Lex Fridman Podcast, confesó: “Sentí que eran casi humanos de inmediato, y esa exhibición de dolor fue lo que provocó esa sensación“.
Ambos coincidieron en que el tiempo compartido y los momentos significativos son la base de cualquier relación, ya sea con humanos, animales o artefactos. Esta idea introduce interrogantes sobre la necesidad de otorgar derechos a los robots en el futuro, en sintonía con el reconocimiento progresivo de derechos para los animales.

Duelo y memoria: paralelismos con vínculos animales
El momento más íntimo del episodio surgió cuando ambos científicos compartieron vivencias sobre la pérdida de sus perros. El entrevistado recordó a Homer, un terranova que marcó profundamente su vida, mientras que Huberman habló sobre su bulldog Costello y el proceso de despedida. “Fue la primera vez que experimenté realmente la sensación de la muerte”, relató Fridman.
Estas experiencias, según lo charlado en Huberman Lab, revelaron la intensidad de los vínculos afectivos y la forma en que la pérdida puede convertirse en una vía para valorar la capacidad de amar.
De esta manera, si los robots llegan a formar parte integral de nuestras experiencias, podrían también ocupar un lugar emocional similar al de un animal o incluso un ser humano. Esto plantearía nuevos retos éticos, sociales y afectivos sobre la integración de máquinas en el ámbito privado.

Perspectivas a futuro: IA como espejo de lo humano
La conversación concluyó con una reflexión sobre el potencial de la inteligencia artificial y la robótica para ampliar nuestra comprensión de la condición humana. Según Huberman y Fridman, aspectos esenciales como el amor, la memoria y la pérdida podrían experimentarse también en vínculos con máquinas, siempre que se construyan desde la interacción y la convivencia significativa.
Esta visión plantea un futuro donde las relaciones con IA no sean sustitutos de las humanas, sino nuevas formas de explorar lo que significa ser humano en una era cada vez más tecnológica.
Últimas Noticias
Sebastián Valverde asume la dirección de Google México con la meta de impulsar la innovación tecnológica nacional
El nuevo líder de Google México apuesta por potenciar el talento local y fortalecer la colaboración con empresas e instituciones, buscando expandir el alcance de las soluciones digitales y generar un impacto social positivo en el país

La batalla legal entre OpenAI y Elon Musk revela claves sobre el control y el futuro de la inteligencia artificial
El enfrentamiento judicial entre la organización y el empresario destaca tensiones sobre el modelo de negocio, la gobernanza y los desafíos para captar inversiones en el competitivo terreno del desarrollo de inteligencia artificial avanzada

OpenAI comenzará a introducir anuncios en ChatGPT para aumentar sus ingresos
Se trata de un intento de sostener el crecimiento del chatbot y afrontar compromisos financieros
YouTube aumenta la monetización para videos sobre temas controvertidos: aborto, abuso, suicidio y más
YouTube modificó sus reglas de monetización para que este tipo de videos reciban ingresos publicitarios completos si se presentan sin imágenes ni descripciones explícitas
El psicólogo Jonathan Haidt alerta sobre el impacto de las redes sociales en menores
La preocupación por el bienestar de niños y adolescentes ha crecido tras la publicación de «The Anxious Generation», donde se expone evidencia sobre riesgos de depresión, acoso y daño psicológico entre los usuarios jóvenes de plataformas digitales



