
La cortesía, aunque siempre bien vista entre humanos, podría no ser tan útil cuando se trata de interactuar con una inteligencia artificial como ChatGPT. Más aún, decir “por favor” y “gracias” podría estar generando un impacto ambiental y económico considerable.
Desde su lanzamiento, ChatGPT ha sido adoptado por millones de usuarios en todo el mundo. Muchos de ellos, por costumbre o educación, tienden a comunicarse con el modelo de forma cortés.
Sin embargo, detrás de esa amabilidad se esconde un detalle técnico que está dando mucho de qué hablar: el uso innecesario de tokens, pequeñas unidades de texto que el modelo procesa para generar respuestas.

Cada palabra extra que se introduce en una consulta —por simple que parezca— implica un trabajo mayor para los servidores que operan el modelo. Sam Altman, CEO de OpenAI, comentó en una conversación reciente en la red social X que las interacciones educadas, si bien son bienintencionadas, implican un mayor consumo de energía y recursos.
Lo que muchos desconocen es que este procesamiento adicional no solo representa un costo monetario para OpenAI, sino también un costo ambiental. Más tokens significan más cálculos, y más cálculos significan más uso de servidores, energía y agua para enfriarlos.
¿Qué palabras pueden empeorar tus resultados?
Más allá del impacto económico o ambiental, hay otro motivo por el que deberías evitar ciertas palabras al usar ChatGPT, pues pueden confundir a la inteligencia artificial y hacer que obtengas peores respuestas.

Según una guía publicada por el medio Tom’s Guide, algunos términos modales como “puedes” o “podrías” introducen un nivel de ambigüedad en la instrucción. Dado que ChatGPT es un modelo literal, diseñado para seguir instrucciones de manera precisa, verbos como esos generan incertidumbre en la solicitud y pueden afectar la precisión de la respuesta.
Por ejemplo, no es lo mismo preguntarle al modelo “¿Puedes enumerar las tendencias del mercado editorial para 2025?” que simplemente decirle “Enumera las tendencias del mercado editorial para 2025”.
En el primer caso, el modelo podría entenderlo como una pregunta hipotética, mientras que en el segundo lo toma como una orden directa, aumentando la claridad y relevancia de la respuesta.

Claves para mejorar tus resultados con ChatGPT
Además de evitar cortesías y verbos modales, los expertos en IA recomiendan seguir algunas reglas sencillas al momento de escribir tus instrucciones:
- Sé decisivo: Evita expresiones como “quizás”, “a veces”, “posiblemente” o “en algunos casos”. Estas palabras diluyen el objetivo de tu consulta y generan respuestas vagas.
- Sé conciso: Elimina palabras innecesarias como “realmente”, “básicamente” o “justamente”. No aportan valor y solo consumen tokens.
- Sé preciso: Evita adverbios como “mucho”, “a menudo” o “recientemente” si no están acompañados de un contexto claro.
- Di lo que necesitas sin rodeos: Expresiones como “lo siento, pero” o “puedo estar equivocado, pero” pueden reducir la confianza de la respuesta generada.
¿Decir “gracias” es malo?
No necesariamente. No vas a romper la IA ni contribuir significativamente al cambio climático por ser amable una vez. Pero en términos masivos, esas palabras sí tienen un peso técnico. Y si tu objetivo es obtener respuestas rápidas, precisas y eficientes, lo mejor es ser directo.
La buena noticia es que ChatGPT no necesita que le agradezcas. No tiene emociones, ni se siente ofendido. Así que puedes reservar tu cortesía para tus amigos y, al hablar con la IA, simplemente enfócate en ser claro, conciso y directo.
Últimas Noticias
Claude Cowork llega a Copilot: Microsoft suma agentes de IA avanzados a su plataforma
Cowork permite delegar tareas cotidianas a agentes de inteligencia artificial

ChatGPT se roba el show porque ahora es matemático y físico con esta nueva versión
Al analizar el teorema de Pitágoras, se pueden cambiar las medidas de los lados del triángulo y ver de una vez cómo varía la hipotenusa
Estos procesadores para IA y robótica compleja ya están activos este 2026
La nueva familia de chips de AMD ofrece el doble de núcleos y hasta un 36% más potencia

Anthropic presentó demanda contra el Departamento de Defensa de EE. UU. por designarla “riesgo para la cadena de suministro”
El origen del conflicto se sitúa en la negativa de la empresa a permitir que su modelo de IA sea utilizado para vigilancia masiva o sistemas autónomos letales

Shazam en ChatGPT: así puedes usar el chatbot para identificar canciones
La unión de ambas tecnologías también permite a los usuarios recibir información detallada y curar listas de reproducción directamente desde cualquier dispositivo con iOS o Android




