
ChatGPT, el popular asistente conversacional creado por OpenAI, se ha convertido en una herramienta cotidiana para millones de personas en todo el mundo. Desde responder preguntas simples hasta redactar textos complejos o actuar como tutor digital, esta IA ha transformado la forma en que interactuamos con la tecnología.
Sin embargo, detrás de esa interacción fluida y amigable, se esconde un debate curioso y poco conocido: ¿conviene ser cortés con la inteligencia artificial?
PUBLICIDAD
La polémica se encendió luego de que Sam Altman, CEO de OpenAI, comentara en tono de broma —aunque con una base técnica sólida— que la cortesía podría tener un costo más alto del que imaginamos.

A través de su cuenta en X (antes Twitter), Altman señaló que expresiones como “por favor” o “gracias” podrían generar un uso extra de recursos computacionales que, multiplicado por millones de usuarios, representa “decenas de millones de dólares bien gastados”.
PUBLICIDAD
¿Por qué tiene un costo decir “gracias”?
Para entenderlo, hay que mirar el funcionamiento interno de ChatGPT y modelos similares. Estas IA procesan texto dividiéndolo en tokens, que son unidades mínimas de información, como palabras o fragmentos de palabras. Mientras más larga y compleja sea la consulta, más tokens se procesan, lo que implica mayor uso de tiempo de cálculo, energía y capacidad de los servidores.
En este sentido, agregar expresiones de cortesía que no aportan información concreta a la consulta puede hacer que el sistema trabaje más para responder lo mismo. Aunque a nivel individual esto parezca insignificante, el problema escala rápidamente cuando se multiplica por millones de usuarios interactuando a diario con el modelo.
PUBLICIDAD

¿Debemos dejar de ser amables?
A pesar de esta advertencia, la discusión no es tan simple. Algunos expertos en ética tecnológica y lingüística sostienen que ser cortés con las IA podría tener efectos positivos, tanto en los resultados como en el comportamiento humano.
Un estudio de la Universidad de Cornell (EE.UU.), por ejemplo, sugiere que el lenguaje educado puede influir en la calidad de las respuestas generadas por sistemas como ChatGPT.
PUBLICIDAD
Los investigadores encontraron que el uso de tonos amigables, respetuosos y moderadamente formales a menudo genera respuestas más completas, menos sesgadas y más colaborativas.

Sin embargo, también advierten que un exceso de cortesía puede hacer que las consultas sean ambiguas o poco directas, lo cual dificulta que el modelo entienda qué se le está pidiendo realmente. Además, el estudio destaca que los efectos del lenguaje educado varían según el idioma y el contexto cultural, lo que complica aún más el análisis.
PUBLICIDAD
Un equilibrio entre eficiencia y humanidad
Entonces, ¿cuál es la respuesta correcta? En lugar de promover una interacción puramente funcional o robótica, muchos especialistas recomiendan adoptar un tono neutral y directo, pero no descortés. Es decir, no es necesario tratar a la IA como si fuera una persona, pero tampoco hay razón para deshumanizar por completo la forma en que nos comunicamos.
Además, en contextos educativos o familiares donde los niños interactúan con IA, promover el respeto y la amabilidad —aunque sea simbólica— puede tener un valor pedagógico.
PUBLICIDAD

¿Ahorro energético o pedagogía digital?
En última instancia, la conversación sobre la cortesía con las IA refleja una tensión entre dos prioridades: la eficiencia tecnológica y el desarrollo de una cultura digital saludable. Por ahora, decir “gracias” a ChatGPT no cambiará el mundo, pero tampoco es un gesto inocuo si se piensa a gran escala.
La recomendación general podría resumirse así: sé claro, directo y respetuoso, pero sin exagerar. La IA no se ofende si no le agradeces.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Una tecnología permite que el WiFi de tu casa sea capaz de ver a través de las paredes
Este sistema reconstruye posiciones humanas sin cámaras ni sensores adicionales, solo mediante ondas y algoritmos de IA

Los tres “chiflados” de la IA, ¿quién tiene la razón?
Las posiciones divergentes de reconocidos investigadores reflejan la complejidad de evaluar riesgos, beneficios y el futuro de la inteligencia artificial una coyuntura de rápida expansión y desafíos regulatorios a nivel mundial

Google prepara la llegada de Gemini Intelligence a Android: estos serán los primeros celulares compatibles con la nueva IA
Google integrará Gemini Intelligence directamente en Android para convertir la IA en el núcleo operativo de los próximos teléfonos inteligentes

Señales de que tu lavadora necesita mantenimiento: cómo detectarlas a tiempo
Vibraciones inusuales, ruidos extraños, fugas, fallos en el drenaje y malos olores son síntomas clave que, si se atienden a tiempo, pueden evitar averías costosas

Sony quiere evitar el elevado precio de la PS6 con esta considerable reducción de memoria RAM
Esta decisión podría reducir el coste de fabricación en aproximadamente 60 dólares por unidad



