
La interacción cotidiana con asistentes virtuales y modelos de lenguaje como ChatGPT ha generado un debate sobre si realmente tiene algún efecto emplear fórmulas de cortesía como “gracias” o “por favor” al comunicarse con la inteligencia artificial.
Aunque desde el punto de vista técnico estos gestos suponen un coste computacional significativo, investigaciones indican que un tono moderadamente educado puede mejorar la calidad de las respuestas que ofrecen los chatbots. La ciencia comienza a demostrar que no es tan inútil ser cordial con la IA como muchos pensaban.
PUBLICIDAD
El efecto de la cortesía en las respuestas de la inteligencia artificial
Un estudio de la Waseda University de Tokio, publicado en 2024, analizó cómo el nivel de cortesía en los mensajes —o prompts— afecta la calidad de las respuestas generadas por modelos de lenguaje como ChatGPT o LLaMA.

Los investigadores probaron instrucciones con distintos grados de educación, desde mensajes groseros hasta otros excesivamente formales, en inglés, chino y japonés.
PUBLICIDAD
Los resultados mostraron una tendencia clara: los prompts muy secos o irrespetuosos generaban respuestas menos precisas y útiles. En cambio, un tono educado pero sin excesos solía dar lugar a respuestas más fiables, completas y mejor estructuradas. Es decir, en el equilibrio entre la brusquedad y la formalidad extrema se encuentran los mejores resultados conversacionales.
Cómo funciona la IA y por qué responde diferente a la cortesía
Lejos de interpretar la educación como lo haría un ser humano, los modelos de lenguaje funcionan a partir de patrones lingüísticos presentes en sus datos de entrenamiento. La IA no “siente” cortesía ni se ofende por la rudeza, pero sí detecta y reproduce estilos conversacionales.
PUBLICIDAD

Un mensaje claro, bien contextualizado y con un tono colaborativo puede guiar al sistema a ofrecer respuestas más elaboradas y pertinentes, mientras que las instrucciones ambiguas o autoritarias tienden a generar respuestas más cortas y poco detalladas.
Esta interpretación fue respaldada por Murray Shanahan, investigador de Google DeepMind, quien comparó a estos sistemas con un becario inteligente: tienden a adaptarse al estilo que plantea el usuario, respondiendo con mayor cooperación y paciencia cuando perciben un trato más educado o colaborativo.
PUBLICIDAD
El debate sobre la utilidad y el coste de ser educado con los chatbots
El uso de fórmulas de cortesía en la comunicación con la IA no está exento de debate. Sam Altman, CEO de OpenAI, advirtió que millones de mensajes de despedida y agradecimiento generan un coste de recursos y energía nada despreciable para mantener los servidores en funcionamiento.

Sin embargo, estudios y encuestas demuestran que muchos usuarios siguen empleando estas expresiones, no porque esperen una reacción emocional de la IA, sino porque forman parte de los hábitos de comunicación cotidiana.
PUBLICIDAD
La ciencia sugiere que, aunque la IA no reconoce la cortesía en términos humanos, mantener un tono educado y colaborativo puede ser útil para obtener mejores respuestas.
Los chatbots fallan más cuando el usuario es vulnerable
Un estudio realizado por el Centro para la Comunicación Constructiva (CCC) del MIT advierte sobre la presencia de sesgos en los modelos de lenguaje más sofisticados, un factor que impacta negativamente en la calidad de las respuestas ofrecidas a usuarios con menor dominio del inglés, bajo nivel educativo o que residen fuera de Estados Unidos.
PUBLICIDAD

Esta situación, según el informe consultado, podría agravar las desigualdades en el acceso global a la información.
El auge de herramientas como GPT-4 de OpenAI, Claude 3 Opus de Anthropic y Llama 3 de Meta había generado expectativas sobre una mayor equidad en el acceso al conocimiento. Estas plataformas, promocionadas como soluciones para democratizar la información, prometen interfaces universales e intuitivas, independientemente del origen o nivel educativo del usuario.
PUBLICIDAD
Sin embargo, la investigación presentada por el CCC del MIT en la Conferencia AAAI de Inteligencia Artificial muestra que los sistemas de IA tienden a proporcionar respuestas menos precisas y fiables a quienes más podrían beneficiarse de ellas.
La autora principal, Elinor Poole-Dayan, subraya: “Esa visión no puede hacerse realidad sin garantizar que los sesgos del modelo y las tendencias perjudiciales se mitiguen de forma segura para todos los usuarios, independientemente de su idioma, nacionalidad u otros datos demográficos”.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Disney apuesta por robots más humanos con ReActor, el sistema que fusiona física e IA para perfeccionar movimientos complejos
El método de ReActor requiere menos conexiones entre partes del cuerpo que los enfoques anteriores

Hackean JDownloader y propagan malware en instaladores para Windows y Linux desde el sitio oficial
Los atacantes modificaron los enlaces de descarga de la web oficial aprovechando un fallo en su sistema de gestión de contenidos

La revolución del SexTech: cómo la tecnología y el autoconocimiento están cerrando la brecha del placer femenino
Ese cambio cultural tiene un motor tecnológico: la industria SexTech, que reúne apps, plataformas y dispositivos inteligentes orientados a mejorar la experiencia íntima

La filosofía del creador de Unix que desafía cómo medimos la productividad en el desarrollo de software
Uno de los días más significativos de la carrera de Ken Thompson no fue cuando escribió código, sino cuando eliminó 1.000 líneas

La consulta médica del futuro no es con un médico: es con Claude, y Anthropic lo acaba de admitir
Anthropic analizó un millón de conversaciones con su chatbot y descubrió que la salud es el tema número uno por el que la gente le pide consejo a la inteligencia artificial; algunos usuarios escriben que recurren a la IA porque no pueden acceder o pagar un profesional, y la empresa lo escribió en su propio paper




