
Los grandes modelos de lenguaje de inteligencia artificial (LLM, por sus siglas en inglés) no comprenden realmente los juegos de palabras, según un estudio académico realizado por investigadores de la Universidad de Cardiff (Reino Unido) y la Universidad Ca’ Foscari de Venecia (Italia), liderados por el profesor José Camacho Collados.
El trabajo fue presentado a principios de noviembre de 2025 en la Conferencia sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural. Los resultados evidencian las limitaciones de la inteligencia artificial en tareas que requieren interpretación del humor, empatía y matices culturales.
El estudio analizó la capacidad de los LLM para identificar y comprender juegos de palabras, un reto que va más allá de la simple detección de estructuras lingüísticas. El equipo diseñó experimentos en los que se presentaron a los modelos frases con juegos de palabras y versiones modificadas de esas mismas frases.

Por ejemplo, se utilizó la oración “Era comediante, pero mi vida se volvió un chiste” y, posteriormente, se reemplazó el remate por “caótica”. A pesar de la ausencia del doble sentido, los modelos continuaron identificando la frase como un juego de palabras.
Otro caso analizado fue: “Los cuentos de hadas largos tienden a ser largos”. Al sustituir términos clave por sinónimos o palabras aleatorias, los LLM persistieron en señalar la presencia de un juego de palabras, lo que sugiere que su análisis se basa en patrones memorizados y no en una comprensión genuina del humor.
En una prueba adicional, la frase: “Los viejos LLM nunca mueren, solo pierden su atención” fue modificada cambiando “atención” por “ukelele”. El modelo mantuvo la percepción de que existía un juego de palabras, argumentando que “ukelele” sonaba similar a “you-kill-LLM”, aunque el sentido humorístico original se había perdido.

Los resultados de estos experimentos revelaron que los LLM pueden detectar la estructura superficial de los juegos de palabras, pero no comprenden el chiste en sí. El profesor Camacho Collados explicó que la investigación demuestra la fragilidad de la comprensión del humor por parte de estos modelos.
Señaló que los LLM tienden a memorizar patrones aprendidos durante su entrenamiento, lo que les permite identificar juegos de palabras conocidos, pero no implica una verdadera comprensión.
El equipo logró engañar sistemáticamente a los modelos al modificar los juegos de palabras y eliminar el doble sentido, observando que los LLM seguían asociando esas frases con juegos de palabras previos e incluso inventaban justificaciones para sostener esa interpretación. Según los investigadores, la supuesta comprensión de los juegos de palabras por parte de la IA es, en realidad, una ilusión.

La investigación también midió la capacidad de los modelos para distinguir entre juegos de palabras y frases sin doble sentido cuando se enfrentaban a ejemplos desconocidos. En estos casos, la tasa de acierto de los LLM descendió hasta el 20%, lo que evidencia una comprensión superficial y limitada.
Estas conclusiones plantean advertencias sobre el uso de la inteligencia artificial en contextos que requieren sensibilidad cultural, empatía o interpretación de matices, como la generación de contenido humorístico o la interacción social. El equipo investigador subrayó la importancia de no confiar ciegamente en los LLM para tareas que dependen de la comprensión del humor o de aspectos culturales complejos.
El estudio, titulado “Juego de palabras no intencionado: LLMs y la ilusión de la comprensión del humor”, fue presentado en la Conferencia sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural 2025, en Suzhou, donde se destacó la necesidad de seguir evaluando críticamente las capacidades y limitaciones de la inteligencia artificial en el procesamiento del lenguaje.
Como recordatorio, los autores del trabajo enfatizaron que la prudencia resulta fundamental al emplear grandes modelos de lenguaje en aplicaciones que exigen interpretar el humor, la empatía o los matices culturales, ya que su aparente comprensión puede resultar engañosa.
Últimas Noticias
Starlink en el celular: cómo funciona la tecnología que permite a los teléfonos acceder a internet satelital
Si un usuario está en una zona donde no hay cobertura de red móvil tradicional, el teléfono identifica la ausencia de señal y se conecta de forma automática a la red satelital

Cómo llamar a un contacto que me bloqueó: trucos para iPhone y Android
Cuando un número se encuentra bloqueado, al realizar una llamada, la comunicación no llega a concretarse o se corta después del primer timbre

Códigos de Free Fire para 21 y 22 de febrero: lista completa y cómo canjearlos
Los usuarios pueden obtener de forma gratuita elementos como diamantes, oro y arsenal dentro del juego

Año Nuevo Lunar en Pokémon GO: estas todas las bonificaciones que por el evento
Los jugadores tendrán mayor probabilidad de encontrar Ponyta, Ponyta de Galar, Fuecoco, Blitzle y Darumaka en estado salvaje

¿Quieres invertir en criptomonedas? Conoce su valor y cómo ha fluctuado en las últimas horas
Las criptomonedas han tenido comportamientos mixtos en las últimas horas

