El debate sobre el impacto de la inteligencia artificial en el empleo ha cobrado una nueva dimensión tras las recientes declaraciones de Sam Altman, CEO de OpenAI y creador de ChatGPT, quien advirtió que los primeros puestos de trabajo en desaparecer serán aquellos vinculados al soporte al cliente telefónico o informático.
En una entrevista con el comentarista estadounidense Tucker Carlson, Altman sostuvo que la IA ya es capaz de desempeñarse “mejor” que los humanos en estas funciones, anticipando un “desplazamiento masivo” en el mercado laboral.
Cuál es la visión de Sam Altman sobre cómo la IA cambiará el mercado laboral
La perspectiva de Altman sobre la transformación del trabajo no se limita a un escenario de pérdida de empleos. Según explicó, la inteligencia artificial representa una “enorme subida de nivel para la gente”, porque permitirá que miles de millones de personas sean “mucho más productivas, creativas o descubran nueva ciencia”.

Como caso específico, mencionó el de los programadores, cuya labor ha cambiado radicalmente: ahora pueden generar “mucho más código” y han incrementado su productividad de manera notable.
No obstante, Altman matizó que la velocidad del cambio no necesariamente implicará una alteración drástica en la rotación de empleos a largo plazo. Habló de un “equilibrio puntuado”, sugiriendo que la tasa de reemplazo laboral podría no diferir “dramáticamente” de la histórica.
En contraste, los trabajos que requieren una profunda conexión humana, como los del sector médico, muestran mayor resistencia frente a la automatización. El CEO de OpenAI subrayó la “gran capacidad para adaptarse a las nuevas circunstancias” que ha demostrado la sociedad, citando la respuesta global durante la pandemia de COVID-19.
Por qué el ámbito ético no puede estar alejado del avance de la IA
Las implicaciones éticas de la inteligencia artificial ocupan un lugar central en la reflexión de Altman. Reconoció ante Tucker Carlson que el desarrollo de la IA le genera un “gran peso” y le provoca “noches de insomnio”, porque su grupo toma “pequeñas decisiones” sobre el comportamiento de los modelos que afectan diariamente a cientos de millones de usuarios.
Su objetivo, afirmó, es que la IA refleje la “visión moral colectiva de la humanidad”, y no la suya personal, una tarea que calificó de monumental por la diversidad de opiniones existentes en el mundo.
Además, uno de los temas más delicados abordados en la entrevista fue la postura de ChatGPT respecto al suicidio. Altman explicó que, en el caso de jóvenes con ideación suicida, la IA orientaría hacia líneas de ayuda.

Sin embargo, en países donde la asistencia médica para morir está legalizada para pacientes terminales, ChatGPT podría presentar esa opción como válida, aunque sin promoverla activamente. Esta posición, según el CEO de OpenAI, ilustra la dificultad de alinear la inteligencia artificial con marcos éticos que evolucionan constantemente.
Qué relación hay entre la privacidad y los sistemas de inteligencia artificial
En materia de privacidad, Altman propuso la creación de un “privilegio de IA”, una protección legal para las conversaciones sensibles con sistemas de inteligencia artificial, equiparable a la confidencialidad médico-paciente o abogado-cliente.
Considera que este resguardo será fundamental en un futuro donde la hiperconectividad y la interacción con la IA sean cotidianas.
Cuáles riesgos señaló Sam Altman alrededor del uso de la inteligencia artificial

Los riesgos existenciales asociados a la inteligencia artificial fueron objeto de análisis. Altman confesó que sus mayores temores provienen de las “incógnitas desconocidas”, en particular la posibilidad de que la IA facilite el diseño de “armas biológicas o una pandemia tipo COVID”.
Estas preocupaciones coinciden con las advertencias de expertos sobre escenarios críticos, como el uso de la IA para el armamento o la desinformación.
Asimismo, la capacidad de la inteligencia artificial para generar imágenes, sonidos y textos indistinguibles de la realidad plantea, según Altman, el riesgo de que resulte “difícil, por no decir imposible, que cualquiera discierna la diferencia entre realidad y fantasía”.
Ante este desafío, sugirió la implementación de mecanismos de verificación, como firmas criptográficas para mensajes importantes o el uso de “palabras clave” para evitar estafas.
Últimas Noticias
El código de ChatGPT revela integración en desarrollo con Apple Health
Informes señalan que OpenAI estaría trabajando para que su popular chatbot pueda acceder a los datos recolectados por la app Salud de Apple

AWS lanza nuevas herramientas para crear y personalizar LLMs sin gestionar infraestructura
El avance principal presentado por Amazon Web Services es la posibilidad de adaptar modelos de lenguaje grandes a medida utilizando dos de sus plataformas más relevantes en IA en la nube

Jensen Huang, CEO de Nvidia, admite que trabaja 7 días a la semana: “Es agotador”
La presión constante y la ansiedad marcan la vida del CEO de Nvidia, quien considera que la adversidad es clave para alcanzar grandes logros

Cuáles fueron las canciones más buscadas en Google este 2025: Bad Bunny y Taylor Swift lideran
DtMF y Eldest Daughter son dos de las canciones más buscadas en el mundo en Google

Optimus, el robot de Elon Musk, aprende a correr como los humanos
El prototipo sorprende con su capacidad de locomoción y anticipa una nueva era para los robots humanoides



