
Una frase tan común como “gracias” puede parecer inofensiva en una conversación con un chatbot, pero detrás de esa cortesía se esconde una cadena de procesos que consume recursos a gran escala. Lejos de ser un simple gesto de amabilidad digital, ese agradecimiento representa parte de un sistema que requiere potentes infraestructuras tecnológicas y una cantidad considerable de energía.
La advertencia provino del propio Sam Altman, director ejecutivo de OpenAI, quien reconoció públicamente que los intercambios educados con ChatGPT implican costos millonarios en electricidad.
A través de una publicación en la red social X, Altman señaló que frases como “por favor” o “gracias”, aunque breves, activan respuestas automáticas que demandan energía computacional, acumulando gastos elevados a gran escala.

La razón de Sam Altman para pedir mesura con ChatGPT
Detrás del funcionamiento de ChatGPT operan modelos de lenguaje masivo que se sostienen en centros de datos con altísimo consumo eléctrico. Cada vez que un usuario escribe un mensaje, por más breve que sea, se encienden cientos o miles de unidades de procesamiento gráfico para procesar la respuesta.
Según estimaciones citadas por Futurism, una sola respuesta de un chatbot puede consumir hasta 0.14 kilovatios hora. Esto equivale a mantener encendidas 14 lámparas LED durante una hora. Aplicado a millones de usuarios semanales, el impacto energético deja de ser anecdótico y pasa a convertirse en una preocupación real.
La lógica es simple. Cada mensaje genera una carga de trabajo. Y si el usuario decide añadir una despedida cordial o un agradecimiento, el sistema responde. Esa respuesta, aunque parezca trivial, vuelve a activar la infraestructura y multiplica el consumo.

Qué recursos consume la IA
A esto se suma otro aspecto poco conocido. Los centros de datos no solo requieren electricidad. También consumen grandes volúmenes de agua para enfriar los sistemas que soportan estos modelos de lenguaje. Genbeta señala que entre 10 y 50 interacciones pueden representar el uso de aproximadamente dos litros de agua.
Con más de 300 millones de usuarios activos a la semana, según cifras recientes de OpenAI, el resultado es una huella ambiental acumulativa difícil de ignorar.
El uso de expresiones amables con una máquina no responde a una necesidad funcional. El sistema no mejora su rendimiento ni ajusta su respuesta en función del tono del usuario. Aun así, muchos lo hacen por hábito, por educación o por simple simpatía.
Una encuesta publicada por el New York Post reveló que el 67 por ciento de los usuarios estadounidenses utiliza expresiones como “por favor” y “gracias” cuando interactúa con asistentes virtuales. Un 12 por ciento incluso reconoció que lo hace de forma preventiva, por si algún día la inteligencia artificial se vuelve autónoma.

Aunque pueda parecer un gesto inocente, esa cortesía tiene efectos medibles. La creciente adopción de chatbots basados en modelos generativos está generando presión sobre los sistemas eléctricos globales.
Qué positivo hay en responderle “gracias” a la IA
Actualmente, los centros de datos representan cerca del 2 por ciento del consumo mundial de electricidad. Ese porcentaje podría aumentar de manera significativa en los próximos años si la tendencia continúa.
Kurtis Beavers, responsable del equipo Copilot en Microsoft, señaló en una entrevista que la amabilidad puede generar respuestas más respetuosas. Desde el punto de vista del diseño conversacional, ese tipo de lenguaje puede mejorar la experiencia de uso, aunque no optimiza el funcionamiento del sistema en términos energéticos.
El debate está abierto. Ser educado con una máquina puede resultar en respuestas más agradables, pero también contribuye a una cadena de consumo de energía y recursos difícil de justificar desde una perspectiva ambiental.
Cada palabra digitada en una conversación con inteligencia artificial activa una infraestructura compleja que consume electricidad, agua y potencia de cálculo. Por eso, si bien la cortesía digital no está prohibida, cada vez son más quienes se preguntan si tiene sentido seguir usándola cuando el costo de una simple frase puede medirse en dólares y emisiones.
Últimas Noticias
De un diagnóstico letal a la IA y una vacuna experimental: la historia del hombre que desafió al cáncer para salvar a su perra
El proceso incluyó análisis genético avanzado, colaboración con universidades líderes y la creación de una terapia personalizada que logró frenar el avance tumoral y mejorar el bienestar de la mascota australiana

De smartphone a PC: trucos para transformar tu teléfono en una computadora
El primer paso fundamental para usar el móvil como una PC es conectar el dispositivo a un monitor externo

Trucos para mejorar la señal del repetidor Wi-Fi y navegar sin corte
El dispositivo debe situarse en un punto intermedio entre el router principal y la zona donde se necesita cobertura

Valve sorprende con una actualización de la app de Steam: mejoras y cambios
Entre los cambios más destacados, la plataforma ahora permite a los usuarios añadir las especificaciones de su PC al momento de escribir una reseña

Google refuerza la seguridad infantil en YouTube con inversión en animación de IA
La iniciativa, impulsada por el fondo AI Futures, busca elevar la calidad de los videos infantiles en la plataforma




