
Muchas personas buscan trucos para obtener mejores respuestas de chatbots de inteligencia artificial, convencidas de que la cortesía o el sarcasmo pueden influir.
Sin embargo, una revisión realizada por BBC Future señala que muchas de estas tácticas no tienen sustento y que la manera en la que interactuamos con estos sistemas rara vez genera cambios significativos.
Jules White, profesor de informática en la Universidad de Vanderbilt, explicó a BBC Future que no existen fórmulas mágicas que resuelvan cualquier consulta con los modelos de lenguaje. Para White, lo fundamental es expresar con claridad el objetivo de la pregunta.
Rick Battle, ingeniero de aprendizaje automático en Broadcom, coincide: estrategias como la adulación, el insulto o el tono amable han perdido relevancia a medida que los modelos de IA avanzan y se actualizan.

Incluso desde las propias empresas tecnológicas hay reconocimiento del fenómeno. En 2025, Sam Altman, director ejecutivo de OpenAI, comentó en tono humorístico que las palabras educadas enviadas a sus sistemas representaron “decenas de millones de dólares bien gastados”, según recogió BBC Future.
Aunque su frase alude, quizá de forma irónica, a los temores apocalípticos sobre la IA, pone en debate el posible efecto de la cortesía al interactuar con estas tecnologías.
Cómo procesan la información los modelos de lenguaje
Los modelos de lenguaje como ChatGPT o Gemini dividen cada consulta en fragmentos llamados “tokens”. Después, analizan estadísticamente esos elementos para producir una respuesta considerada adecuada.
Este proceso vuelve a los sistemas sumamente sensibles a pequeños detalles del texto, como la elección de palabras o una coma adicional. Sin embargo, tal como indica BBC Future, predecir el impacto real de cualquier cambio menor sigue siendo prácticamente imposible.

Aunque distintos estudios intentaron identificar patrones en las distintas formulaciones, sus resultados suelen ser contradictorios o poco concluyentes.
Las actualizaciones permanentes en los algoritmos de IA hacen que experimentos pasados queden rápidamente obsoletos. Además, en los modelos más recientes, esas variaciones mínimas en la instrucción rara vez producen alteraciones sistemáticas en las respuestas.
Según Battle, la situación cambió de manera notable en los últimos años. En 2024, experimentos con simulaciones de ciencia ficción aún lograban influir en los resultados. Hoy, los modelos priorizan con mayor eficacia la información relevante. La mayoría de veces, los cambios menores en la redacción no afectan ni la precisión ni el fondo de la contestación.
¿La cortesía mejora las respuestas de los chatbots?
Existen estudios recientes sobre el impacto de la cortesía en la precisión de los modelos de lenguaje. En 2024, una investigación halló que, en ciertas pruebas, las preguntas amables generaban respuestas apenas más correctas que las solicitudes directas.

Llamó la atención la aparición de diferencias culturales: en inglés y chino, la cortesía podía favorecer el rendimiento, pero en japonés, un exceso de formalismo incluso disminuía la calidad de las respuestas.
Otras pruebas realizadas con versiones anteriores de ChatGPT revelaron resultados opuestos: el insulto y la rudeza arrojaban a veces respuestas más precisas.
La comunidad científica, según el medio citado, destaca que la evidencia sigue siendo insuficiente y que la evolución constante de estos sistemas impide llegar a conclusiones definitivas.
Para los expertos, variables como la cultura, el idioma y las actualizaciones frecuentes de los modelos dificultan la validez de estos hallazgos. En consecuencia, sugieren no depender ni de la cortesía ni de la agresión como rutas para lograr mayor precisión.

Estrategias para interactuar con la inteligencia artificial
Lejos de los mitos, los especialistas proponen estrategias prácticas para interactuar con modelos de lenguaje.
White recomienda solicitar al menos tres o cinco opciones en vez de una sola. Así, se obtiene variedad de respuestas y el usuario puede comparar, lo que facilita definir exactamente lo que necesita.
Otra técnica es ofrecer ejemplos concretos al sistema. Si el usuario no queda conforme con el tono de un texto generado por la IA, puede compartir escritos previos y pedir que se utilice ese estilo para obtener un resultado más acorde.
También se aconseja pedirle al chatbot que realice entrevistas, sobre todo para temas que requieren recopilar información progresivamente. Por ejemplo, al crear un perfil laboral, guiar al sistema para que haga preguntas individuales permite reunir los datos necesarios paso a paso.

Un aspecto fundamental consiste en mantener instrucciones lo más neutrales posible. Battle advierte en BBC Future: “No induzca la respuesta”. Al comparar alternativas, señalar una preferida puede llevar a la IA a reforzar esa inclinación y sesgar el resultado.
Qué evitar al interactuar con chatbots
Una creencia frecuente en la ingeniería de instrucciones es asignar a la IA el “rol de experto”, pidiéndole que actúe como especialista para elevar la exactitud de las respuestas.
Sander Schulhoff, investigador en este ámbito, señala que, aunque antes se pensaba que este método mejoraba la calidad, análisis recientes muestran que puede generar más errores o fomentar la alucinación, cuando el modelo entrega información incorrecta que parece creíble.
Battle advierte que sugerir papeles de autoridad puede ser riesgoso, puesto que al hacer que la IA confíe excesivamente en su conocimiento interno, aumenta la probabilidad de respuestas inexactas.

No obstante, en situaciones creativas o sin una única respuesta correcta, el “rol de experto” puede ser útil, por ejemplo, en actividades de lluvia de ideas o simulaciones.
Para búsquedas objetivas, los especialistas insisten en tratar a la IA como lo que es: una herramienta avanzada, no un interlocutor humano.
Más allá de la precisión: cortesía y efectos en el usuario
Aunque la cortesía digital no produzca mejoras tangibles en las respuestas de los modelos de lenguaje, sigue siendo común por motivos humanos.
Una encuesta de 2025 mostró que el 70% de los usuarios interactúa amablemente con los chatbots, ya sea por convicción o por considerarlo la actitud adecuada.

Schulhoff sostiene en BBC Future que emplear fórmulas como “por favor” o “gracias” no potencia el desempeño técnico de la IA, pero puede generar comodidad y favorecer el aprovechamiento de la herramienta para el propio usuario.
Así, aunque la IA permanezca indiferente a nuestro lenguaje, el modo en que le hablamos revela cómo queremos relacionarnos con la tecnología y refuerza hábitos que van más allá de la máquina.
Últimas Noticias
Cambios en Google Fotos: así funcionan sus nuevas herramientas para mejorar rostros
La herramienta identifica múltiples caras y permite editar cada una por separado

Estos son los iPhone que no podrían actualizarse a iOS 27
Las funciones avanzadas de Apple Intelligence son uno de los principales motivos para limitar el acceso a la actualización

Apple lanza iOS 26.5 beta 3 y soluciona un molesto problema en la pantalla de bloqueo
La nueva beta corrige fallos de fluidez en el desbloqueo, uno de los gestos más usados del sistema

Así es el ciberataque que conoce la manera como trabajas y busca afectar tu empresa
Este ransomware selecciona víctimas específicas y adapta sus técnicas a cada compañía para robar datos



