
Los grandes modelos de lenguaje de inteligencia artificial (LLM, por sus siglas en inglés) no comprenden realmente los juegos de palabras, según un estudio académico realizado por investigadores de la Universidad de Cardiff (Reino Unido) y la Universidad Ca’ Foscari de Venecia (Italia), liderados por el profesor José Camacho Collados.
El trabajo fue presentado a principios de noviembre de 2025 en la Conferencia sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural. Los resultados evidencian las limitaciones de la inteligencia artificial en tareas que requieren interpretación del humor, empatía y matices culturales.
El estudio analizó la capacidad de los LLM para identificar y comprender juegos de palabras, un reto que va más allá de la simple detección de estructuras lingüísticas. El equipo diseñó experimentos en los que se presentaron a los modelos frases con juegos de palabras y versiones modificadas de esas mismas frases.

Por ejemplo, se utilizó la oración “Era comediante, pero mi vida se volvió un chiste” y, posteriormente, se reemplazó el remate por “caótica”. A pesar de la ausencia del doble sentido, los modelos continuaron identificando la frase como un juego de palabras.
Otro caso analizado fue: “Los cuentos de hadas largos tienden a ser largos”. Al sustituir términos clave por sinónimos o palabras aleatorias, los LLM persistieron en señalar la presencia de un juego de palabras, lo que sugiere que su análisis se basa en patrones memorizados y no en una comprensión genuina del humor.
En una prueba adicional, la frase: “Los viejos LLM nunca mueren, solo pierden su atención” fue modificada cambiando “atención” por “ukelele”. El modelo mantuvo la percepción de que existía un juego de palabras, argumentando que “ukelele” sonaba similar a “you-kill-LLM”, aunque el sentido humorístico original se había perdido.

Los resultados de estos experimentos revelaron que los LLM pueden detectar la estructura superficial de los juegos de palabras, pero no comprenden el chiste en sí. El profesor Camacho Collados explicó que la investigación demuestra la fragilidad de la comprensión del humor por parte de estos modelos.
Señaló que los LLM tienden a memorizar patrones aprendidos durante su entrenamiento, lo que les permite identificar juegos de palabras conocidos, pero no implica una verdadera comprensión.
El equipo logró engañar sistemáticamente a los modelos al modificar los juegos de palabras y eliminar el doble sentido, observando que los LLM seguían asociando esas frases con juegos de palabras previos e incluso inventaban justificaciones para sostener esa interpretación. Según los investigadores, la supuesta comprensión de los juegos de palabras por parte de la IA es, en realidad, una ilusión.

La investigación también midió la capacidad de los modelos para distinguir entre juegos de palabras y frases sin doble sentido cuando se enfrentaban a ejemplos desconocidos. En estos casos, la tasa de acierto de los LLM descendió hasta el 20%, lo que evidencia una comprensión superficial y limitada.
Estas conclusiones plantean advertencias sobre el uso de la inteligencia artificial en contextos que requieren sensibilidad cultural, empatía o interpretación de matices, como la generación de contenido humorístico o la interacción social. El equipo investigador subrayó la importancia de no confiar ciegamente en los LLM para tareas que dependen de la comprensión del humor o de aspectos culturales complejos.
El estudio, titulado “Juego de palabras no intencionado: LLMs y la ilusión de la comprensión del humor”, fue presentado en la Conferencia sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural 2025, en Suzhou, donde se destacó la necesidad de seguir evaluando críticamente las capacidades y limitaciones de la inteligencia artificial en el procesamiento del lenguaje.
Como recordatorio, los autores del trabajo enfatizaron que la prudencia resulta fundamental al emplear grandes modelos de lenguaje en aplicaciones que exigen interpretar el humor, la empatía o los matices culturales, ya que su aparente comprensión puede resultar engañosa.
Últimas Noticias
Booking.com confirma hackeo y filtración de datos de clientes, reservas y contactos
A pesar del alcance del ataque, la empresa asegura que la información financiera de sus usuarios permanece segura

¿Recibiste una oferta para recuperar dinero tras un fraude? Así puedes detectar un nuevo engaño
Los estafadores adquieren listas de víctimas y luego se comunican haciéndose pasar por entidades confiables

Así quiere Google que Gemini te ayude a planear el día y olvídate de las excusas
Esta herramienta permitirá anticipar necesidades y recordar compromisos mediante el análisis automatizado en tiempo real

Android 17: lo que debes saber de la siguiente generación del sistema operativo
El lanzamiento estable de Android 17 está previsto para un despliegue inicial en los teléfonos Pixel a partir de junio o julio

Esta falsa actualización de Windows 11 en realidad es un ciberataque que el antivirus no detecta
El engaño inicia en una página web fraudulenta que promete mejoras al sistema operativo de Microsoft


