
El emprendedor argentino Alan Daitch, con más de dos décadas desarrollando startups digitales y enfocado en sistemas basados en inteligencia artificial, asegura que “cuando eres amable con la IA, ella genera respuestas más largas, mejor pensadas y más precisas”.
Según el experto, no se trata de una cuestión de urbanidad gratuita, sino de una estrategia para obtener mejores resultados técnicos. Esta visión está respaldada por investigaciones recientes que estudian cómo los grandes modelos de lenguaje, como ChatGPT, responden de manera diferente según el tono de las indicaciones que reciben.
Qué dice la ciencia sobre la cortesía con la IA
Investigadores de la Universidad de Cornell llevaron a cabo un estudio que analizó cómo estos sistemas reaccionan a distintas formas de comunicación. El resultado fue contundente: los comandos groseros o demasiado directos suelen producir respuestas de menor calidad, más propensas a errores u omisiones importantes.

En cambio, las solicitudes respetuosas —aquellas que contienen fórmulas como “por favor”, “¿podrías?”, o expresan un tono colaborativo— superan de forma sistemática a las interacciones bruscas, especialmente en tareas complejas como resúmenes, traducciones o explicaciones detalladas.
En algunos modelos, la diferencia en el rendimiento ante una petición educada frente a una impaciente puede llegar hasta un 30% menos de efectividad. Esto ocurre, según los investigadores, porque la inteligencia artificial ha sido entrenada con millones de ejemplos de lenguaje humano, muchos de ellos cargados de convenciones culturales.
De esta manera, el sistema aprende a replicar estructuras que reconoce como propias de una conversación colaborativa, y por tanto, responde en consecuencia.
La observación de Daitch se alinea con este enfoque. “La actitud con la que nos dirigimos a la inteligencia artificial influye, y mucho, en el tipo de respuesta que recibimos”, sostiene.

Y añade que esta práctica, más allá de la mejora funcional, puede contribuir al desarrollo de habilidades comunicacionales valiosas, como la empatía y la claridad en el lenguaje. En entornos laborales, donde el uso de IA comienza a ser habitual, este tipo de hábitos puede convertirse en un diferencial profesional.
Cuáles son las implicaciones éticas y ambientales de la cortesía
Más allá del rendimiento técnico y las implicancias en el plano interpersonal, existe un aspecto menos visible pero cada vez más relevante: el impacto ambiental. Cada interacción con sistemas como ChatGPT requiere procesamiento computacional intensivo.
Estos procesos consumen electricidad y agua —esta última utilizada para enfriar los servidores—, y su escala global multiplica rápidamente estos consumos.
Según la Agencia Internacional de la Energía, una sola consulta a ChatGPT puede requerir hasta diez veces más energía que una búsqueda convencional en Google. De forma más precisa, datos difundidos por Tom’s Hardware estiman que una solicitud promedio al modelo consume 0,3 vatios-hora de electricidad.

Aunque esto pueda parecer menor en términos individuales, cuando se replica por millones de usuarios al día, el impacto es considerable.
Un estudio de la Universidad de California complementa esta visión: incluso una respuesta breve de dos o tres palabras puede implicar un consumo de entre 40 y 50 mililitros de agua, utilizada para la refrigeración de los servidores. Así, expresiones como “gracias” o “por favor”, si bien mínimas desde el punto de vista lingüístico, agrandan la cadena de procesamiento y, por ende, la huella ecológica.
Qué dice Sam Altman sobre la amabilidad con ChatGPT
Esta tensión entre la cortesía lingüística y el uso eficiente de recursos fue abordada públicamente por Sam Altman, CEO de OpenAI, empresa responsable de ChatGPT. En una interacción en la red social X, un usuario le preguntó si las fórmulas educadas en las consultas tenían un impacto en los costos de operación.
Altman respondió con tono irónico: “Decenas de millones de dólares bien gastados”, haciendo referencia al incremento de palabras procesadas por los modelos debido a la cortesía de los usuarios.

Aunque la respuesta fue en clave de humor, revela una preocupación real. Cuanto más larga es la entrada textual de una consulta, mayor es el número de tokens y más complejas y costosas se vuelven las operaciones que ejecuta la IA.
Esta complejidad adicional requiere más tiempo de cálculo, un mayor uso de GPU (unidades de procesamiento gráfico) y un aumento en el consumo energético global del sistema.
Por este motivo, Altman y otros expertos plantean que si bien la cortesía puede tener beneficios en la calidad de las respuestas, conviene reservarla para situaciones donde realmente se la necesite, y evitar el uso indiscriminado de frases que extiendan innecesariamente las consultas.
Últimas Noticias
Investigadores de Google detectan a hackers rusos robando datos de usuarios de iPhone en Ucrania
Los ciberdelincuentes emplearon el malware Darksword para realizar sus ataques, en una campaña que evidencia la sofisticación y el alcance del espionaje digital en el conflicto armado

Por qué Meta desactiva el cifrado en los chats de Instagram y desde cuándo ya no estará disponible
A diferencia de WhatsApp, donde el cifrado de extremo a extremo está activado por defecto, en la red social los usuarios debían habilitar manualmente esta protección
Cómo es el sistema de computación que Nvidia quiere usar para construir centros de datos en el espacio
Con Vera Rubin Space-1, su nuevo módulo informático, la empresa busca llevar la computación de IA más allá de la Tierra
¿Mitad humano, mitad máquina? El nuevo robot que te convierte en centauro para cargar objetos pesados
A diferencia de los exoesqueletos convencionales, este sistema añade dos patas robóticas independientes que se conectan a la espalda de la persona

Construyen la primera batería cuántica del mundo: se carga más rápido cuanto más grande es
Los investigadores buscan combinar la velocidad de carga cuántica con la capacidad de almacenamiento de las baterías convencionales




