
Sam Altman, director ejecutivo de OpenAI y principal responsable de ChatGPT, ha relatado el impacto personal que la creación de esta aplicación ha tenido en su vida diaria al alterar su tranquilidad al dormir.
Según el CEO, desde que se lanzó este chatbot, no ha podido dormir con tranquilidad debido a los desafíos éticos y sociales asociados a esta herramienta de inteligencia artificial.
Por qué Sam Altman no puede dormir por ChatGPT
Sam Altman se ha convertido en el rostro visible de la IA conversacional. Desde su lanzamiento, ChatGPT ha sido adoptado por cientos de millones de usuarios en todo el mundo, lo que implica una responsabilidad inmensa para quienes están detrás del proyecto.
En una entrevista para The Tucker Carlson Show, Altman admitió que “no he dormido bien ni una sola noche desde que se lanzó ChatGPT”.

El CEO de OpenAI explicó que la presión no solo proviene de las grandes decisiones morales, sino especialmente de las pequeñas determinaciones cotidianas que definen el comportamiento de ChatGPT.
“No me preocupa que nos equivoquemos en las grandes decisiones morales, aunque podamos hacerlo. Lo que me quita el sueño son las decisiones pequeñas que tomamos sobre cómo un modelo se comporta. El impacto es grande”, declaró Altman.
Cada ajuste, cada parámetro y cada directriz implementada en el modelo puede repercutir de manera significativa en la experiencia y en la percepción de millones de usuarios.
Cómo funciona el marco moral detrás de ChatGPT
Uno de los puntos más complejos en el desarrollo de modelos de inteligencia artificial radica en la definición de los principios éticos que guían su funcionamiento. Altman explicó que la construcción del marco moral de ChatGPT fue el resultado de un proceso extenso y colectivo.
“Las respuestas que ofrece ahora mismo ChatGPT son el resultado de una consulta a ‘cientos de expertos’. Hemos consultado a filósofos morales y gente que ha pensado en la ética de la tecnología y los sistemas. Y, al final, nosotros tomamos las decisiones. Aunque no podemos acertar en todo y necesitamos también un feedback para buscar el equilibrio”, aseguró.
La diversidad de perspectivas resulta un desafío adicional. Altman subrayó que existen numerosas formas de entender lo correcto y lo incorrecto según las distintas culturas y contextos sociales.
“Es una cuestión difícil porque hay muchas personas con diferentes perspectivas de vida, pero en general me ha sorprendido la capacidad general del modelo para aprender y aplicar un marco moral”, reconoció. Este marco moral no es fijo, sino que evoluciona con el tiempo y se ajusta a las realidades sociales y legales de cada país.
Altman asumió públicamente la responsabilidad por el comportamiento de ChatGPT. “Tenemos un equipo de comportamiento del modelo, pero la persona a la que hay que hacer responsable de las decisiones sobre qué marco moral se aplica soy yo. Soy la cara pública”, afirmó.
Entre los ejemplos de dilemas éticos, Altman mencionó la posibilidad de que la IA explique cómo construir armas biológicas, incluso bajo el pretexto de la investigación científica.
“Por ejemplo, ¿debería ChatGPT enseñarte a construir un arma biológica incluso si tus fines son meramente investigadores? ¿Debería enseñarte a crear nuevas síntesis virales? Pero no hay un interés social en que ChatGPT ayude a crear armas biológicas", explicó. En estos casos, la línea parece clara, pero existen muchas otras situaciones donde los límites morales se difuminan.
El debate sobre hasta qué punto la IA debe intervenir o abstenerse plantea interrogantes fundamentales. Altman se considera un facilitador o guía de la tecnología, más que un árbitro moral.
“ChatGPT debe reflejar ese promedio ponderado de la visión moral de la humanidad, que evolucionará con el tiempo. Estamos aquí para servir a nuestros usuarios. Esto es una herramienta tecnológica para la gente”, finalizó.
Últimas Noticias
Todos los rumores sobre el nuevo Apple TV que llegaría en 2026: Siri, IA con Apple Intelligence y más
Gracias al nuevo hardware, el Apple TV podría ejecutar videojuegos AAA de forma nativa, ampliando su rol más allá del streaming tradicional

Meta gasta 2.000 millones de dólares apostando a los mejores chatbots con inteligencia artificial, invirtieron en Manus AI
Parte del plan es llevar agentes autónomos a Facebook, Instagram y WhatsApp

Qué celulares Android serán compatibles con WhatsApp en 2026
Modelos clásicos de Samsung, LG, Huawei y Sony quedarán fuera de la aplicación si no pueden actualizar su sistema operativo

Por qué la película de Las guerreras K-pop se convirtió en la más vista en la historia de Netflix
El largometraje rompió récords de visualización transformando a su audiencia de diferente edad en generadora y difusora de contenido en línea

PlayStation Plus tendrá un cambio en enero de 2026 y los jugadores de PS4 serán los afectados
Sony empieza a dar más muestras del final del ciclo de vida de esta consola lanzada en 2013



