
Sam Altman, director ejecutivo de OpenAI y creador de ChatGPT, anticipó que los primeros empleos en desaparecer no serán los de médicos ni abogados, sino los relacionados con el soporte al cliente telefónico o informático.
En diálogo con el comentarista estadounidense Tucker Carlson, Altman sostuvo que la IA ya supera a los humanos en estas tareas, lo que augura un “desplazamiento masivo” en el ámbito laboral.
A diferencia de otros líderes, como Elon Musk, quien ha afirmado que la inteligencia artificial “pronto superará a los médicos y abogados por un amplio margen”, Altman considera que los trabajos que requieren una profunda interacción humana, como los del sector médico, presentan mayor resistencia frente a la automatización.
Según el CEO de OpenAI, la sociedad ha demostrado una “gran capacidad para adaptarse a las nuevas circunstancias”, y citó como caso específico la respuesta global durante la pandemia de COVID-19.
Cómo cambiará la inteligencia artificial la productividad de una persona

Altman no limita su visión a la pérdida de empleos. Explicó en la entrevista que la inteligencia artificial representa una “enorme subida de nivel para la gente”, porque permitirá que miles de millones de personas sean “mucho más productivas, creativas o descubran nueva ciencia”.
Mencionó el caso de los programadores, quienes ahora pueden generar “mucho más código” y han incrementado su productividad de gran manera. No obstante, matizó que la velocidad de estos cambios no necesariamente provocará una alteración drástica en la rotación de empleos a largo plazo.
Por qué Sam Altman pide analizar el uso de la inteligencia artificial con ética
Las implicaciones éticas de la inteligencia artificial ocupan un lugar central en la reflexión de Altman. Reconoció que el desarrollo de la IA le genera un “gran peso” y le provoca “noches de insomnio”, porque sus empleados toman “pequeñas decisiones” sobre el comportamiento de los modelos que afectan diariamente a cientos de millones de usuarios.

Su objetivo, afirmó, es que la IA refleje la “visión moral colectiva de la humanidad”, y no la suya personal, una tarea que calificó de monumental por la diversidad de opiniones existentes en el mundo.
En este sentido, uno de los temas más delicados abordados en la entrevista fue la postura de ChatGPT respecto al suicidio. Altman explicó que, en el caso de jóvenes con ideación suicida, la IA orientaría hacia líneas de ayuda.
Sin embargo, en países donde la asistencia médica para morir está legalizada para pacientes terminales, ChatGPT podría presentar esa opción como válida, aunque sin promoverla activamente. Esta posición, según el empresario, ilustra lo difícil de alinear la inteligencia artificial con marcos éticos que evolucionan constantemente.
Cuál es la visión de Sam Altman sobre la privacidad de los modelos de IA

En el ámbito de la privacidad, el ejecutivo propuso la creación de un “privilegio de IA”, una protección legal para las conversaciones sensibles con sistemas de inteligencia artificial, equiparable a la confidencialidad médico-paciente o abogado-cliente.
Considera que este resguardo será clave en un futuro donde la hiperconectividad y la interacción con la IA formen parte de la vida cotidiana.
Qué riesgos ve Sam Altman relacionados con el uso de la inteligencia artificial
Los riesgos existenciales asociados a la inteligencia artificial fueron objeto de análisis. Altman confesó que sus mayores temores provienen de las “incógnitas desconocidas”, en particular la posibilidad de que la IA facilite el diseño de “armas biológicas o una pandemia tipo COVID”.

Estas preocupaciones coinciden con las advertencias de expertos sobre escenarios críticos, como el uso de la IA para el armamento o la desinformación.
Asimismo, la capacidad de la inteligencia artificial para generar imágenes, sonidos y textos indistinguibles de la realidad plantea, según Altman, el riesgo de que resulte “difícil, por no decir imposible, que cualquiera discierna la diferencia entre realidad y fantasía”.
Frente a este desafío, sugirió la implementación de mecanismos de verificación, como firmas criptográficas para mensajes importantes o el uso de “palabras clave” para reducir fraudes.
Últimas Noticias
Qué es la función coffee break alert del Citroën C3 híbrido y cómo ayuda a prevenir accidentes
Esta herramienta detecta cuando has conducido por mucho tiempo y te envía alertas de descanso

Todo lo que debes saber si piensas comprar un auto eléctrico para llevarlo al campo
Entre los aspectos que se deben considerar está la autonomía de la batería, los asistentes a la conducción y los modos de manejo

Cómo editar videos en Google Fotos y lograr efectos únicos desde el móvil
Los usuarios de dispositivos Pixel 8 o posteriores pueden silenciar el video o eliminar la pista de audio original

Apenas la cuarta parte de empleos de tecnología en Colombia corresponde a mujeres: cómo enfrentar esta situación
Expertos advierten que aumentar la participación femenina en ingeniería y ciencias exactas será vital para responder a las exigencias de la economía digital

Estos nuevos procesadores tienen un 'truco' que te permite elegir en qué juegos rendirá mejor
La nueva tecnología introducida por Intel ofrece ajustes personalizados que mejoran la experiencia en títulos seleccionados, logrando incrementos notables frente a generaciones anteriores y superando en tareas multihilo a la competencia




