
El emprendedor argentino Alan Daitch, con más de dos décadas desarrollando startups digitales y enfocado en sistemas basados en inteligencia artificial, asegura que “cuando eres amable con la IA, ella genera respuestas más largas, mejor pensadas y más precisas”.
Según el experto, no se trata de una cuestión de urbanidad gratuita, sino de una estrategia para obtener mejores resultados técnicos. Esta visión está respaldada por investigaciones recientes que estudian cómo los grandes modelos de lenguaje, como ChatGPT, responden de manera diferente según el tono de las indicaciones que reciben.
Qué dice la ciencia sobre la cortesía con la IA
Investigadores de la Universidad de Cornell llevaron a cabo un estudio que analizó cómo estos sistemas reaccionan a distintas formas de comunicación. El resultado fue contundente: los comandos groseros o demasiado directos suelen producir respuestas de menor calidad, más propensas a errores u omisiones importantes.

En cambio, las solicitudes respetuosas —aquellas que contienen fórmulas como “por favor”, “¿podrías?”, o expresan un tono colaborativo— superan de forma sistemática a las interacciones bruscas, especialmente en tareas complejas como resúmenes, traducciones o explicaciones detalladas.
En algunos modelos, la diferencia en el rendimiento ante una petición educada frente a una impaciente puede llegar hasta un 30% menos de efectividad. Esto ocurre, según los investigadores, porque la inteligencia artificial ha sido entrenada con millones de ejemplos de lenguaje humano, muchos de ellos cargados de convenciones culturales.
De esta manera, el sistema aprende a replicar estructuras que reconoce como propias de una conversación colaborativa, y por tanto, responde en consecuencia.
La observación de Daitch se alinea con este enfoque. “La actitud con la que nos dirigimos a la inteligencia artificial influye, y mucho, en el tipo de respuesta que recibimos”, sostiene.

Y añade que esta práctica, más allá de la mejora funcional, puede contribuir al desarrollo de habilidades comunicacionales valiosas, como la empatía y la claridad en el lenguaje. En entornos laborales, donde el uso de IA comienza a ser habitual, este tipo de hábitos puede convertirse en un diferencial profesional.
Cuáles son las implicaciones éticas y ambientales de la cortesía
Más allá del rendimiento técnico y las implicancias en el plano interpersonal, existe un aspecto menos visible pero cada vez más relevante: el impacto ambiental. Cada interacción con sistemas como ChatGPT requiere procesamiento computacional intensivo.
Estos procesos consumen electricidad y agua —esta última utilizada para enfriar los servidores—, y su escala global multiplica rápidamente estos consumos.
Según la Agencia Internacional de la Energía, una sola consulta a ChatGPT puede requerir hasta diez veces más energía que una búsqueda convencional en Google. De forma más precisa, datos difundidos por Tom’s Hardware estiman que una solicitud promedio al modelo consume 0,3 vatios-hora de electricidad.

Aunque esto pueda parecer menor en términos individuales, cuando se replica por millones de usuarios al día, el impacto es considerable.
Un estudio de la Universidad de California complementa esta visión: incluso una respuesta breve de dos o tres palabras puede implicar un consumo de entre 40 y 50 mililitros de agua, utilizada para la refrigeración de los servidores. Así, expresiones como “gracias” o “por favor”, si bien mínimas desde el punto de vista lingüístico, agrandan la cadena de procesamiento y, por ende, la huella ecológica.
Qué dice Sam Altman sobre la amabilidad con ChatGPT
Esta tensión entre la cortesía lingüística y el uso eficiente de recursos fue abordada públicamente por Sam Altman, CEO de OpenAI, empresa responsable de ChatGPT. En una interacción en la red social X, un usuario le preguntó si las fórmulas educadas en las consultas tenían un impacto en los costos de operación.
Altman respondió con tono irónico: “Decenas de millones de dólares bien gastados”, haciendo referencia al incremento de palabras procesadas por los modelos debido a la cortesía de los usuarios.

Aunque la respuesta fue en clave de humor, revela una preocupación real. Cuanto más larga es la entrada textual de una consulta, mayor es el número de tokens y más complejas y costosas se vuelven las operaciones que ejecuta la IA.
Esta complejidad adicional requiere más tiempo de cálculo, un mayor uso de GPU (unidades de procesamiento gráfico) y un aumento en el consumo energético global del sistema.
Por este motivo, Altman y otros expertos plantean que si bien la cortesía puede tener beneficios en la calidad de las respuestas, conviene reservarla para situaciones donde realmente se la necesite, y evitar el uso indiscriminado de frases que extiendan innecesariamente las consultas.
Últimas Noticias
Wrapped 2025: descubre cómo saber tu edad musical en Spotify
Al abrir la app, debería aparecer el aviso “¡Ya está aquí tu Wrapped 2025!”. Si esto no ocurre, puedes consultar tu edad sonora de otra forma

Google planea lanzar centros de datos solares al espacio a partir de 2027
Las primeras etapas contemplan el envío de equipos compactos para pruebas iniciales en satélites

Spotify Wrapped 2025 rompe récords con más de 200 millones de usuarios en un día
En solo 24 horas, se crearon más de 500 millones de historias, que incluyen publicaciones en la plataforma, capturas de pantalla y descargas

La nueva función Touch Up llega a Google Fotos: así podrás editar rasgos faciales uno a uno
Los usuarios podrán seleccionar el rostro de cada persona en sus fotos y aplicar ajustes diferenciados para cejas, labios, dientes y más, superando las limitaciones de los tradicionales filtros generales
ChatGPT desacelera su crecimiento mientras Gemini gana usuarios y extiende el tiempo de uso diario
La integración con herramientas de Google y la posibilidad de comprender texto, imágenes, audio y video impulsan el atractivo y el uso intensivo de Gemini


