
Sam Altman, director ejecutivo de OpenAI y creador de ChatGPT, anticipó que los primeros empleos en desaparecer no serán los de médicos ni abogados, sino los relacionados con el soporte al cliente telefónico o informático.
En diálogo con el comentarista estadounidense Tucker Carlson, Altman sostuvo que la IA ya supera a los humanos en estas tareas, lo que augura un “desplazamiento masivo” en el ámbito laboral.
A diferencia de otros líderes, como Elon Musk, quien ha afirmado que la inteligencia artificial “pronto superará a los médicos y abogados por un amplio margen”, Altman considera que los trabajos que requieren una profunda interacción humana, como los del sector médico, presentan mayor resistencia frente a la automatización.
Según el CEO de OpenAI, la sociedad ha demostrado una “gran capacidad para adaptarse a las nuevas circunstancias”, y citó como caso específico la respuesta global durante la pandemia de COVID-19.
Cómo cambiará la inteligencia artificial la productividad de una persona

Altman no limita su visión a la pérdida de empleos. Explicó en la entrevista que la inteligencia artificial representa una “enorme subida de nivel para la gente”, porque permitirá que miles de millones de personas sean “mucho más productivas, creativas o descubran nueva ciencia”.
Mencionó el caso de los programadores, quienes ahora pueden generar “mucho más código” y han incrementado su productividad de gran manera. No obstante, matizó que la velocidad de estos cambios no necesariamente provocará una alteración drástica en la rotación de empleos a largo plazo.
Por qué Sam Altman pide analizar el uso de la inteligencia artificial con ética
Las implicaciones éticas de la inteligencia artificial ocupan un lugar central en la reflexión de Altman. Reconoció que el desarrollo de la IA le genera un “gran peso” y le provoca “noches de insomnio”, porque sus empleados toman “pequeñas decisiones” sobre el comportamiento de los modelos que afectan diariamente a cientos de millones de usuarios.

Su objetivo, afirmó, es que la IA refleje la “visión moral colectiva de la humanidad”, y no la suya personal, una tarea que calificó de monumental por la diversidad de opiniones existentes en el mundo.
En este sentido, uno de los temas más delicados abordados en la entrevista fue la postura de ChatGPT respecto al suicidio. Altman explicó que, en el caso de jóvenes con ideación suicida, la IA orientaría hacia líneas de ayuda.
Sin embargo, en países donde la asistencia médica para morir está legalizada para pacientes terminales, ChatGPT podría presentar esa opción como válida, aunque sin promoverla activamente. Esta posición, según el empresario, ilustra lo difícil de alinear la inteligencia artificial con marcos éticos que evolucionan constantemente.
Cuál es la visión de Sam Altman sobre la privacidad de los modelos de IA

En el ámbito de la privacidad, el ejecutivo propuso la creación de un “privilegio de IA”, una protección legal para las conversaciones sensibles con sistemas de inteligencia artificial, equiparable a la confidencialidad médico-paciente o abogado-cliente.
Considera que este resguardo será clave en un futuro donde la hiperconectividad y la interacción con la IA formen parte de la vida cotidiana.
Qué riesgos ve Sam Altman relacionados con el uso de la inteligencia artificial
Los riesgos existenciales asociados a la inteligencia artificial fueron objeto de análisis. Altman confesó que sus mayores temores provienen de las “incógnitas desconocidas”, en particular la posibilidad de que la IA facilite el diseño de “armas biológicas o una pandemia tipo COVID”.

Estas preocupaciones coinciden con las advertencias de expertos sobre escenarios críticos, como el uso de la IA para el armamento o la desinformación.
Asimismo, la capacidad de la inteligencia artificial para generar imágenes, sonidos y textos indistinguibles de la realidad plantea, según Altman, el riesgo de que resulte “difícil, por no decir imposible, que cualquiera discierna la diferencia entre realidad y fantasía”.
Frente a este desafío, sugirió la implementación de mecanismos de verificación, como firmas criptográficas para mensajes importantes o el uso de “palabras clave” para reducir fraudes.
Últimas Noticias
El sube y baja de ethereum: cuál es su valor este 9 de enero
Ethereum fue creada en 2015 por el programador Vitalik Buterin, con la intención de impulsar una herramienta para aplicaciones descentralizadas y colaborativas

Cómo ha cambiado el valor de la criptomoneda bitcoin en el último día
El bitcoin fue la primera moneda virtual creada en el mundo y ha llegado a superar las 68 mil unidades de dólar

Este es el robot autónomo más pequeño que un grano de sal: se mueve y procesa datos
Su cuerpo, de aproximadamente 210 por 340 micrómetros y 50 micrómetros de grosor, está diseñado para operar en fluidos

El joven que desarrolló un dispositivo para combatir la soledad de su abuelo hoy trabaja desde Silicon Valley: en marzo sale a la venta
Con base en San Francisco, los creadores desarrollan Ato: una propuesta de inteligencia artificial orientada al acompañamiento cotidiano de personas mayores, probada con familias reales

Estos son los robots humanoides que acaparan la atención en CES 2026
El Onero H1 sorprendió por su capacidad para ejecutar tareas domésticas como poner la ropa en la lavadora o doblarla



