
Sam Altman, director ejecutivo de OpenAI y creador de ChatGPT, anticipó que los primeros empleos en desaparecer no serán los de médicos ni abogados, sino los relacionados con el soporte al cliente telefónico o informático.
En diálogo con el comentarista estadounidense Tucker Carlson, Altman sostuvo que la IA ya supera a los humanos en estas tareas, lo que augura un “desplazamiento masivo” en el ámbito laboral.
PUBLICIDAD
A diferencia de otros líderes, como Elon Musk, quien ha afirmado que la inteligencia artificial “pronto superará a los médicos y abogados por un amplio margen”, Altman considera que los trabajos que requieren una profunda interacción humana, como los del sector médico, presentan mayor resistencia frente a la automatización.
Según el CEO de OpenAI, la sociedad ha demostrado una “gran capacidad para adaptarse a las nuevas circunstancias”, y citó como caso específico la respuesta global durante la pandemia de COVID-19.
PUBLICIDAD
Cómo cambiará la inteligencia artificial la productividad de una persona

Altman no limita su visión a la pérdida de empleos. Explicó en la entrevista que la inteligencia artificial representa una “enorme subida de nivel para la gente”, porque permitirá que miles de millones de personas sean “mucho más productivas, creativas o descubran nueva ciencia”.
Mencionó el caso de los programadores, quienes ahora pueden generar “mucho más código” y han incrementado su productividad de gran manera. No obstante, matizó que la velocidad de estos cambios no necesariamente provocará una alteración drástica en la rotación de empleos a largo plazo.
PUBLICIDAD
Por qué Sam Altman pide analizar el uso de la inteligencia artificial con ética
Las implicaciones éticas de la inteligencia artificial ocupan un lugar central en la reflexión de Altman. Reconoció que el desarrollo de la IA le genera un “gran peso” y le provoca “noches de insomnio”, porque sus empleados toman “pequeñas decisiones” sobre el comportamiento de los modelos que afectan diariamente a cientos de millones de usuarios.

Su objetivo, afirmó, es que la IA refleje la “visión moral colectiva de la humanidad”, y no la suya personal, una tarea que calificó de monumental por la diversidad de opiniones existentes en el mundo.
PUBLICIDAD
En este sentido, uno de los temas más delicados abordados en la entrevista fue la postura de ChatGPT respecto al suicidio. Altman explicó que, en el caso de jóvenes con ideación suicida, la IA orientaría hacia líneas de ayuda.
Sin embargo, en países donde la asistencia médica para morir está legalizada para pacientes terminales, ChatGPT podría presentar esa opción como válida, aunque sin promoverla activamente. Esta posición, según el empresario, ilustra lo difícil de alinear la inteligencia artificial con marcos éticos que evolucionan constantemente.
PUBLICIDAD
Cuál es la visión de Sam Altman sobre la privacidad de los modelos de IA

En el ámbito de la privacidad, el ejecutivo propuso la creación de un “privilegio de IA”, una protección legal para las conversaciones sensibles con sistemas de inteligencia artificial, equiparable a la confidencialidad médico-paciente o abogado-cliente.
Considera que este resguardo será clave en un futuro donde la hiperconectividad y la interacción con la IA formen parte de la vida cotidiana.
PUBLICIDAD
Qué riesgos ve Sam Altman relacionados con el uso de la inteligencia artificial
Los riesgos existenciales asociados a la inteligencia artificial fueron objeto de análisis. Altman confesó que sus mayores temores provienen de las “incógnitas desconocidas”, en particular la posibilidad de que la IA facilite el diseño de “armas biológicas o una pandemia tipo COVID”.

Estas preocupaciones coinciden con las advertencias de expertos sobre escenarios críticos, como el uso de la IA para el armamento o la desinformación.
PUBLICIDAD
Asimismo, la capacidad de la inteligencia artificial para generar imágenes, sonidos y textos indistinguibles de la realidad plantea, según Altman, el riesgo de que resulte “difícil, por no decir imposible, que cualquiera discierna la diferencia entre realidad y fantasía”.
Frente a este desafío, sugirió la implementación de mecanismos de verificación, como firmas criptográficas para mensajes importantes o el uso de “palabras clave” para reducir fraudes.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Adiós a pagar dinero por más megas: 5 trucos para mejorar la velocidad de la red WiFi en el hogar
Estrategias como reiniciar el módem, ubicar el router en un punto central y cambiar la banda de frecuencia pueden reducir los problemas en el servicio de internet

Cómo ver los estados y canales de WhatsApp sin salir de la pestaña de Chats
La nueva actualización beta para Android centraliza historias y canales en la pantalla principal, simplificando la navegación

Nueva serie de códigos de Free Fire para este 30 de abril de 2026: cómo reclamar premios
Jugadores pueden acceder a diamantes, skins y objetos de edición limitada sin pagar dinero. Las recompensas se acreditan usualmente en menos de 24 horas

OpenAI prohíbe que su IA Codex hable de duendes, trolls y mapaches: este es el motivo
Usuarios descubrieron que algunos modelos de IA empezaban a obsesionarse con “goblins” y “gremlins” al programar

Presionarías el botón rojo para salvarte o el botón azul para salvar la humanidad: el desafió moral de MrBeast
En X, el creador de contenido puso a prueba a sus seguidores, con una sencilla encuesta




