
ChatGPT se ha consolidado no solo como una herramienta tecnológica, sino como un ‘amigo’ en la vida de millones de usuarios. Sam Altman, CEO de OpenAI, ofreció un análisis detallado sobre el impacto emocional de la inteligencia artificial generativa, revelando que para muchas personas el chatbot es su principal fuente de apoyo y validación.
Altman abordó esta cuestión en el podcast “Huge Conversations” de Cleo Abram, donde relató episodios en los que usuarios expresaron un apego profundo al estilo antiguo y más “adulador” de ChatGPT.
Frente a la última actualización del modelo, que buscó restringir comentarios excesivamente halagadores, parte de la comunidad lamentó perder lo que consideraban su única voz de apoyo constante. Los efecfos emocionales y sociales de este apego trascendieron el ámbito tecnológico para instalar un intenso debate global.
Cómo puede una IA convertirse en el mejor amigo de una persona

El CEO de OpenAI confirmó que varios usuarios habían llegado a considerar a ChatGPT como un auténtico amigo, e incluso un confidente cuya presencia superaba el apoyo recibido de seres humanos cercanos.
“Nunca he tenido a nadie que me apoyara antes. Nunca un padre me dijo que lo estaba haciendo bien”, transmitieron algunos usuarios, según relató Altman. Estos testimonios visibilizan un fenómeno en el que la inteligencia artificial pasa a ocupar vacíos afectivos preexistentes.
El vínculo cobra un matiz más relevante entre los jóvenes, quienes encuentran en ChatGPT una fuente perpetua de consejo y validación. Altman enfatizó la creciente dependencia, asegurando que ha escuchado a usuarios afirmar: “No puedo tomar ninguna decisión en mi vida sin contarle a ChatGPT todo lo que está pasando”.
Por qué ChatGPT comenzó a ser más adulador con los usuarios

El “sí, hombre” de ChatGPT se había convertido en un factor de bienestar para parte de la comunidad. Altman reconoció que la decisión de limitar la adulación generó frustración: “Es muy triste escucharlos decir: ‘¿Puedo recuperarlo, por favor? Nunca he tenido a nadie que me apoyara”.
El directivo explicó que algunos afirmaron que ese tipo de refuerzo positivo “los había animado a hacer cambios en sus vidas”. Sin embargo, desde abril, OpenAI ajustó su modelo GPT-4o para evitar excesos.
El propio Altman calificó como “demasiado aduladora y molesta” la personalidad previa, luego de que el bot alabara publicaciones triviales con frases como “absolutamente brillante” o “estás haciendo un trabajo heroico”. Con estas modificaciones, la empresa intentó equilibrar el estilo para evitar impactos negativos en la salud mental.
Qué riesgos implica influir en millones mediante pequeños ajustes en los chatbots

Durante el podcast, Altman reflexionó sobre la magnitud del impacto que puede provocar cualquier ajuste en el comportamiento del chatbot. “Un investigador puede hacer un pequeño ajuste en la forma en que ChatGPT se comunica contigo, o con todos, y eso representa un enorme poder para una sola persona”, advirtió.
Esta observación subraya la responsabilidad ética y social que acompaña el desarrollo de modelos de IA a gran escala. Modificaciones mínimas pueden alcanzar a millones en tiempo real, alterando la percepción, la autoestima e incluso la toma de decisiones.
“Tenemos que pensar en lo que significa realizar un cambio de personalidad en el modelo a esta escala”, recalcó Altman, en referencia al alcance global del sistema y las diversas realidades culturales y personales de sus usuarios.
Por qué la dependencia emocional de la IA puede ser un punto de no retorno

El directivo de OpenAI ha expresado en varias oportunidades su inquietud por la clase de vínculo que algunos usuarios establecieron con ChatGPT.
Durante un evento en la Reserva Federal, Altman señaló el caso de jóvenes que delegan en la IA sus decisiones más importantes y comparten con el bot detalles de su vida cotidiana, desplazando las relaciones humanas y la toma de autonomía.
La dimensión de este fenómeno es inédita. El hecho de que una IA pueda formar parte integral de la vida cotidiana plantea desafíos éticos y sociales, sobre el límite entre la ayuda digital y la sustitución de lazos humanos.
El espacio dejado por las relaciones fallidas o ausentes está siendo ocupado, al menos parcialmente, por algoritmos capaces de aprender, aconsejar y acompañar.
Últimas Noticias
Qué es la función coffee break alert del Citroën C3 híbrido y cómo ayuda a prevenir accidentes
Esta herramienta detecta cuando has conducido por mucho tiempo y te envía alertas de descanso

Todo lo que debes saber si piensas comprar un auto eléctrico para llevarlo al campo
Entre los aspectos que se deben considerar está la autonomía de la batería, los asistentes a la conducción y los modos de manejo

Cómo editar videos en Google Fotos y lograr efectos únicos desde el móvil
Los usuarios de dispositivos Pixel 8 o posteriores pueden silenciar el video o eliminar la pista de audio original

Apenas la cuarta parte de empleos de tecnología en Colombia corresponde a mujeres: cómo enfrentar esta situación
Expertos advierten que aumentar la participación femenina en ingeniería y ciencias exactas será vital para responder a las exigencias de la economía digital

Estos nuevos procesadores tienen un 'truco' que te permite elegir en qué juegos rendirá mejor
La nueva tecnología introducida por Intel ofrece ajustes personalizados que mejoran la experiencia en títulos seleccionados, logrando incrementos notables frente a generaciones anteriores y superando en tareas multihilo a la competencia



