ChatGPT hace que Sam Altman no pueda dormir bien “ni una sola noche” por este motivo

La preocupación ética y social son parte del desafío diario que representa el chatbot de OpenAI

Guardar
Sam Altman, CEO de OpenAI,
Sam Altman, CEO de OpenAI, reconoce el impacto personal y profesional que el desarrollo de ChatGPT ha tenido en su vida cotidiana. (Reuters)

Sam Altman, director ejecutivo de OpenAI y principal responsable de ChatGPT, ha relatado el impacto personal que la creación de esta aplicación ha tenido en su vida diaria al alterar su tranquilidad al dormir.

Según el CEO, desde que se lanzó este chatbot, no ha podido dormir con tranquilidad debido a los desafíos éticos y sociales asociados a esta herramienta de inteligencia artificial.

Por qué Sam Altman no puede dormir por ChatGPT

Sam Altman se ha convertido en el rostro visible de la IA conversacional. Desde su lanzamiento, ChatGPT ha sido adoptado por cientos de millones de usuarios en todo el mundo, lo que implica una responsabilidad inmensa para quienes están detrás del proyecto.

En una entrevista para The Tucker Carlson Show, Altman admitió que “no he dormido bien ni una sola noche desde que se lanzó ChatGPT”.

La adopción masiva de ChatGPT,
La adopción masiva de ChatGPT, utilizada por cientos de millones de usuarios, representa una enorme responsabilidad para el equipo de OpenAI. (AP Foto/Michael Dwyer, Archivo)

El CEO de OpenAI explicó que la presión no solo proviene de las grandes decisiones morales, sino especialmente de las pequeñas determinaciones cotidianas que definen el comportamiento de ChatGPT.

“No me preocupa que nos equivoquemos en las grandes decisiones morales, aunque podamos hacerlo. Lo que me quita el sueño son las decisiones pequeñas que tomamos sobre cómo un modelo se comporta. El impacto es grande”, declaró Altman.

Cada ajuste, cada parámetro y cada directriz implementada en el modelo puede repercutir de manera significativa en la experiencia y en la percepción de millones de usuarios.

Cómo funciona el marco moral detrás de ChatGPT

Uno de los puntos más complejos en el desarrollo de modelos de inteligencia artificial radica en la definición de los principios éticos que guían su funcionamiento. Altman explicó que la construcción del marco moral de ChatGPT fue el resultado de un proceso extenso y colectivo.

El marco moral de ChatGPT
El marco moral de ChatGPT es el resultado de consultas a cientos de expertos, entre filósofos morales y especialistas en ética tecnológica.

“Las respuestas que ofrece ahora mismo ChatGPT son el resultado de una consulta a ‘cientos de expertos’. Hemos consultado a filósofos morales y gente que ha pensado en la ética de la tecnología y los sistemas. Y, al final, nosotros tomamos las decisiones. Aunque no podemos acertar en todo y necesitamos también un feedback para buscar el equilibrio”, aseguró.

La diversidad de perspectivas resulta un desafío adicional. Altman subrayó que existen numerosas formas de entender lo correcto y lo incorrecto según las distintas culturas y contextos sociales.

“Es una cuestión difícil porque hay muchas personas con diferentes perspectivas de vida, pero en general me ha sorprendido la capacidad general del modelo para aprender y aplicar un marco moral”, reconoció. Este marco moral no es fijo, sino que evoluciona con el tiempo y se ajusta a las realidades sociales y legales de cada país.

Altman asumió públicamente la responsabilidad por el comportamiento de ChatGPT. “Tenemos un equipo de comportamiento del modelo, pero la persona a la que hay que hacer responsable de las decisiones sobre qué marco moral se aplica soy yo. Soy la cara pública”, afirmó.

Entre los dilemas éticos destacados
Entre los dilemas éticos destacados por Altman figura la negativa de ChatGPT a enseñar la fabricación de armas biológicas, incluso para la investigación. (REUTERS/Dado Ruvic/Illustration/File Photo)

Entre los ejemplos de dilemas éticos, Altman mencionó la posibilidad de que la IA explique cómo construir armas biológicas, incluso bajo el pretexto de la investigación científica.

“Por ejemplo, ¿debería ChatGPT enseñarte a construir un arma biológica incluso si tus fines son meramente investigadores? ¿Debería enseñarte a crear nuevas síntesis virales? Pero no hay un interés social en que ChatGPT ayude a crear armas biológicas", explicó. En estos casos, la línea parece clara, pero existen muchas otras situaciones donde los límites morales se difuminan.

El debate sobre hasta qué punto la IA debe intervenir o abstenerse plantea interrogantes fundamentales. Altman se considera un facilitador o guía de la tecnología, más que un árbitro moral.

“ChatGPT debe reflejar ese promedio ponderado de la visión moral de la humanidad, que evolucionará con el tiempo. Estamos aquí para servir a nuestros usuarios. Esto es una herramienta tecnológica para la gente”, finalizó.