
Una frase tan común como “gracias” puede parecer inofensiva en una conversación con un chatbot, pero detrás de esa cortesía se esconde una cadena de procesos que consume recursos a gran escala. Lejos de ser un simple gesto de amabilidad digital, ese agradecimiento representa parte de un sistema que requiere potentes infraestructuras tecnológicas y una cantidad considerable de energía.
La advertencia provino del propio Sam Altman, director ejecutivo de OpenAI, quien reconoció públicamente que los intercambios educados con ChatGPT implican costos millonarios en electricidad.
A través de una publicación en la red social X, Altman señaló que frases como “por favor” o “gracias”, aunque breves, activan respuestas automáticas que demandan energía computacional, acumulando gastos elevados a gran escala.

La razón de Sam Altman para pedir mesura con ChatGPT
Detrás del funcionamiento de ChatGPT operan modelos de lenguaje masivo que se sostienen en centros de datos con altísimo consumo eléctrico. Cada vez que un usuario escribe un mensaje, por más breve que sea, se encienden cientos o miles de unidades de procesamiento gráfico para procesar la respuesta.
Según estimaciones citadas por Futurism, una sola respuesta de un chatbot puede consumir hasta 0.14 kilovatios hora. Esto equivale a mantener encendidas 14 lámparas LED durante una hora. Aplicado a millones de usuarios semanales, el impacto energético deja de ser anecdótico y pasa a convertirse en una preocupación real.
La lógica es simple. Cada mensaje genera una carga de trabajo. Y si el usuario decide añadir una despedida cordial o un agradecimiento, el sistema responde. Esa respuesta, aunque parezca trivial, vuelve a activar la infraestructura y multiplica el consumo.

Qué recursos consume la IA
A esto se suma otro aspecto poco conocido. Los centros de datos no solo requieren electricidad. También consumen grandes volúmenes de agua para enfriar los sistemas que soportan estos modelos de lenguaje. Genbeta señala que entre 10 y 50 interacciones pueden representar el uso de aproximadamente dos litros de agua.
Con más de 300 millones de usuarios activos a la semana, según cifras recientes de OpenAI, el resultado es una huella ambiental acumulativa difícil de ignorar.
El uso de expresiones amables con una máquina no responde a una necesidad funcional. El sistema no mejora su rendimiento ni ajusta su respuesta en función del tono del usuario. Aun así, muchos lo hacen por hábito, por educación o por simple simpatía.
Una encuesta publicada por el New York Post reveló que el 67 por ciento de los usuarios estadounidenses utiliza expresiones como “por favor” y “gracias” cuando interactúa con asistentes virtuales. Un 12 por ciento incluso reconoció que lo hace de forma preventiva, por si algún día la inteligencia artificial se vuelve autónoma.

Aunque pueda parecer un gesto inocente, esa cortesía tiene efectos medibles. La creciente adopción de chatbots basados en modelos generativos está generando presión sobre los sistemas eléctricos globales.
Qué positivo hay en responderle “gracias” a la IA
Actualmente, los centros de datos representan cerca del 2 por ciento del consumo mundial de electricidad. Ese porcentaje podría aumentar de manera significativa en los próximos años si la tendencia continúa.
Kurtis Beavers, responsable del equipo Copilot en Microsoft, señaló en una entrevista que la amabilidad puede generar respuestas más respetuosas. Desde el punto de vista del diseño conversacional, ese tipo de lenguaje puede mejorar la experiencia de uso, aunque no optimiza el funcionamiento del sistema en términos energéticos.
El debate está abierto. Ser educado con una máquina puede resultar en respuestas más agradables, pero también contribuye a una cadena de consumo de energía y recursos difícil de justificar desde una perspectiva ambiental.
Cada palabra digitada en una conversación con inteligencia artificial activa una infraestructura compleja que consume electricidad, agua y potencia de cálculo. Por eso, si bien la cortesía digital no está prohibida, cada vez son más quienes se preguntan si tiene sentido seguir usándola cuando el costo de una simple frase puede medirse en dólares y emisiones.
Últimas Noticias
Ni guiones ni voces hechas por IA: Capcom revela cómo usará la tecnología solo para acelerar el desarrollo
Capcom utilizará IA para optimizar procesos internos, pero no para crear contenido final en sus juegos

Lo que nadie se esperaba: Mario Kart Tour solo podrá ser jugado por mayores de 18 años en Brasil
La medida se basa en su sistema de recompensas aleatorias, considerado cercano a los juegos de azar

Por qué no deberías usar un iPhone con la pantalla rota: aumenta el riesgo de incendios
Ante la sospecha de daño en el cristal o en la batería, Apple sugiere dejar de utilizar el teléfono y acudir a un servicio técnico autorizado para evitar incidentes graves

Tu “Yo Digital” sin límites: truco de Gemini para crear un clon con IA que puedes usar donde quieras
La nueva función busca integrar la imagen y voz del usuario en contenidos creados con inteligencia artificial

GTA 6 llegaría a Nintendo Switch 2 el mismo día de su lanzamiento en PS5 y Xbox Series X|S
Esta filtración llega en medio de la expectativa por el anuncio del juego para PC, que no tiene fecha confirmada



