
Muchas personas buscan trucos para obtener mejores respuestas de chatbots de inteligencia artificial, convencidas de que la cortesía o el sarcasmo pueden influir.
Sin embargo, una revisión realizada por BBC Future señala que muchas de estas tácticas no tienen sustento y que la manera en la que interactuamos con estos sistemas rara vez genera cambios significativos.
Jules White, profesor de informática en la Universidad de Vanderbilt, explicó a BBC Future que no existen fórmulas mágicas que resuelvan cualquier consulta con los modelos de lenguaje. Para White, lo fundamental es expresar con claridad el objetivo de la pregunta.
Rick Battle, ingeniero de aprendizaje automático en Broadcom, coincide: estrategias como la adulación, el insulto o el tono amable han perdido relevancia a medida que los modelos de IA avanzan y se actualizan.

Incluso desde las propias empresas tecnológicas hay reconocimiento del fenómeno. En 2025, Sam Altman, director ejecutivo de OpenAI, comentó en tono humorístico que las palabras educadas enviadas a sus sistemas representaron “decenas de millones de dólares bien gastados”, según recogió BBC Future.
Aunque su frase alude, quizá de forma irónica, a los temores apocalípticos sobre la IA, pone en debate el posible efecto de la cortesía al interactuar con estas tecnologías.
Cómo procesan la información los modelos de lenguaje
Los modelos de lenguaje como ChatGPT o Gemini dividen cada consulta en fragmentos llamados “tokens”. Después, analizan estadísticamente esos elementos para producir una respuesta considerada adecuada.
Este proceso vuelve a los sistemas sumamente sensibles a pequeños detalles del texto, como la elección de palabras o una coma adicional. Sin embargo, tal como indica BBC Future, predecir el impacto real de cualquier cambio menor sigue siendo prácticamente imposible.

Aunque distintos estudios intentaron identificar patrones en las distintas formulaciones, sus resultados suelen ser contradictorios o poco concluyentes.
Las actualizaciones permanentes en los algoritmos de IA hacen que experimentos pasados queden rápidamente obsoletos. Además, en los modelos más recientes, esas variaciones mínimas en la instrucción rara vez producen alteraciones sistemáticas en las respuestas.
Según Battle, la situación cambió de manera notable en los últimos años. En 2024, experimentos con simulaciones de ciencia ficción aún lograban influir en los resultados. Hoy, los modelos priorizan con mayor eficacia la información relevante. La mayoría de veces, los cambios menores en la redacción no afectan ni la precisión ni el fondo de la contestación.
¿La cortesía mejora las respuestas de los chatbots?
Existen estudios recientes sobre el impacto de la cortesía en la precisión de los modelos de lenguaje. En 2024, una investigación halló que, en ciertas pruebas, las preguntas amables generaban respuestas apenas más correctas que las solicitudes directas.

Llamó la atención la aparición de diferencias culturales: en inglés y chino, la cortesía podía favorecer el rendimiento, pero en japonés, un exceso de formalismo incluso disminuía la calidad de las respuestas.
Otras pruebas realizadas con versiones anteriores de ChatGPT revelaron resultados opuestos: el insulto y la rudeza arrojaban a veces respuestas más precisas.
La comunidad científica, según el medio citado, destaca que la evidencia sigue siendo insuficiente y que la evolución constante de estos sistemas impide llegar a conclusiones definitivas.
Para los expertos, variables como la cultura, el idioma y las actualizaciones frecuentes de los modelos dificultan la validez de estos hallazgos. En consecuencia, sugieren no depender ni de la cortesía ni de la agresión como rutas para lograr mayor precisión.

Estrategias para interactuar con la inteligencia artificial
Lejos de los mitos, los especialistas proponen estrategias prácticas para interactuar con modelos de lenguaje.
White recomienda solicitar al menos tres o cinco opciones en vez de una sola. Así, se obtiene variedad de respuestas y el usuario puede comparar, lo que facilita definir exactamente lo que necesita.
Otra técnica es ofrecer ejemplos concretos al sistema. Si el usuario no queda conforme con el tono de un texto generado por la IA, puede compartir escritos previos y pedir que se utilice ese estilo para obtener un resultado más acorde.
También se aconseja pedirle al chatbot que realice entrevistas, sobre todo para temas que requieren recopilar información progresivamente. Por ejemplo, al crear un perfil laboral, guiar al sistema para que haga preguntas individuales permite reunir los datos necesarios paso a paso.

Un aspecto fundamental consiste en mantener instrucciones lo más neutrales posible. Battle advierte en BBC Future: “No induzca la respuesta”. Al comparar alternativas, señalar una preferida puede llevar a la IA a reforzar esa inclinación y sesgar el resultado.
Qué evitar al interactuar con chatbots
Una creencia frecuente en la ingeniería de instrucciones es asignar a la IA el “rol de experto”, pidiéndole que actúe como especialista para elevar la exactitud de las respuestas.
Sander Schulhoff, investigador en este ámbito, señala que, aunque antes se pensaba que este método mejoraba la calidad, análisis recientes muestran que puede generar más errores o fomentar la alucinación, cuando el modelo entrega información incorrecta que parece creíble.
Battle advierte que sugerir papeles de autoridad puede ser riesgoso, puesto que al hacer que la IA confíe excesivamente en su conocimiento interno, aumenta la probabilidad de respuestas inexactas.

No obstante, en situaciones creativas o sin una única respuesta correcta, el “rol de experto” puede ser útil, por ejemplo, en actividades de lluvia de ideas o simulaciones.
Para búsquedas objetivas, los especialistas insisten en tratar a la IA como lo que es: una herramienta avanzada, no un interlocutor humano.
Más allá de la precisión: cortesía y efectos en el usuario
Aunque la cortesía digital no produzca mejoras tangibles en las respuestas de los modelos de lenguaje, sigue siendo común por motivos humanos.
Una encuesta de 2025 mostró que el 70% de los usuarios interactúa amablemente con los chatbots, ya sea por convicción o por considerarlo la actitud adecuada.

Schulhoff sostiene en BBC Future que emplear fórmulas como “por favor” o “gracias” no potencia el desempeño técnico de la IA, pero puede generar comodidad y favorecer el aprovechamiento de la herramienta para el propio usuario.
Así, aunque la IA permanezca indiferente a nuestro lenguaje, el modo en que le hablamos revela cómo queremos relacionarnos con la tecnología y refuerza hábitos que van más allá de la máquina.
Últimas Noticias
Xbox lanza nueva consola híbrida: conoce todo sobre Project Helix
Esta nueva plataforma, cuyo nombre es aún provisional, promete compatibilidad total con juegos de Xbox y PC

Gana hasta 10.000 euros con esta convocatoria de Microsoft: quiénes pueden acceder y requisitos
La compañía lanza una convocatoria del Fondo Comunitario de Madrid para impulsar el impacto social en la región a través del desarrollo de proyectos

Cómo conseguir audio de alta calidad en YouTube Music en minutos
Para lograr la mejor calidad de sonido en la app de música de YouTube, es necesario acceder a las opciones avanzadas de la aplicación

Oracle planearía miles de despidos por gasto masivo en sus centros de datos de IA
Un ambicioso giro hacia la computación en la nube y el uso extensivo de inteligencia artificial lleva a Oracle a eliminar puestos que considera obsoletos
Sam Altman admite que OpenAI no puede controlar lo que hace su IA en manos del Pentágono
El reciente acuerdo entre OpenAI y el Departamento de Defensa reaviva preocupaciones sobre la autonomía de las tecnológicas y el poder del gobierno


