
En Grecia, una mujer pidió el divorcio después de que ChatGPT interpretara los restos de café en su taza y sugiriera que su esposo le era infiel.
La situación comenzó con una actividad doméstica común. La pareja preparó café griego, una bebida espesa que, por tradición, deja residuos en el fondo de la taza.
En medio de una tendencia creciente en redes sociales, la mujer fotografió los restos del café y le pidió a ChatGPT que los interpretara, como si se tratara de una sesión de tasseografía, también conocida como lectura de posos.
El resultado, según su relato, fue una revelación inesperada: el modelo de IA habría descrito que su esposo fantaseaba con una mujer cuyo nombre comenzaba con “E” y que esa persona pretendía destruir su familia. A partir de esa lectura, la mujer solicitó el divorcio.

El esposo, en declaraciones al programa griego To Proino, aseguró que tomó la situación como una broma: “Me reí y lo tomé como una tontería. Pero ella no. Me dijo que me fuera, les informó a nuestros hijos sobre el divorcio, y lo siguiente que supe fue que me llamó su abogado”.
El caso ha generado un amplio debate sobre el uso de inteligencia artificial en contextos personales, así como sobre la creciente popularidad de prácticas esotéricas reinterpretadas mediante tecnologías automatizadas.
Debate legal
El caso ha llegado a los tribunales. El abogado del hombre sostiene que la acusación carece de fundamentos válidos: “Él es inocente hasta que se demuestre lo contrario”, afirmó al Greek City Times, e insistió en que una interpretación automatizada de residuos de café no tiene valor legal.
En paralelo, practicantes de tasseografía tradicional criticaron el procedimiento, señalando que una lectura seria no se realiza solo a partir de fotografías, y que se deben analizar múltiples elementos, como la espuma, el remolino o incluso el platillo.

El esposo también reconoció que su pareja ya tenía antecedentes de interés en prácticas no convencionales. Según sus palabras, ella había seguido durante un año las predicciones de un astrólogo, por lo que esta consulta a la inteligencia artificial no fue un episodio aislado.
Tasseografía e inteligencia artificial: entre tradición y algoritmo
La tasseografía es una práctica ancestral, asociada con la lectura simbólica de los restos en bebidas como café o té. Su interpretación ha dependido históricamente de la experiencia subjetiva del lector.
Con la popularización de herramientas como ChatGPT, algunas personas han comenzado a delegar esa “lectura” a modelos de lenguaje entrenados con grandes volúmenes de texto, lo que permite que el sistema produzca interpretaciones que simulan el estilo adivinatorio, aunque sin comprender su contexto.
Sin embargo, ChatGPT, como otros modelos de IA generativa, no tiene conciencia ni conocimiento real de imágenes ni símbolos. Su funcionamiento se basa en el procesamiento estadístico de secuencias de texto, completando frases según patrones derivados de entrenamiento.

En el caso mencionado, la supuesta infidelidad surgió de una descripción generada a partir de una imagen y una solicitud subjetiva, no de una evaluación factual o verificable.
Reacciones en redes y dilemas contemporáneos
El episodio ha generado un amplio debate en redes sociales, especialmente en Grecia. Mientras algunos usuarios defendieron la decisión de la mujer argumentando que la IA simplemente reflejó una sospecha latente, otros cuestionaron la racionalidad de una decisión tan trascendental tomada en función de una interpretación no verificable.
Este tipo de episodios plantea preguntas sobre el rol de las tecnologías automatizadas en la vida cotidiana, especialmente cuando se convierten en mediadoras de emociones, conflictos o decisiones personales.

Según especialistas en comunicación digital, como la investigadora estadounidense Kate Crawford, la IA no es neutral: sus respuestas dependen de los datos que procesan y de las expectativas que proyectan sus usuarios.
“Los sistemas de inteligencia artificial reflejan nuestras estructuras sociales, nuestros prejuicios y también nuestras obsesiones”, escribió en su libro Atlas of AI, publicado a través de Yale University Press.
Casos como este ponen en evidencia la manera en que tecnologías diseñadas para tareas generales de procesamiento textual son incorporadas en esferas altamente sensibles. Aunque el episodio puede parecer anecdótico, refleja un uso cada vez más extendido de la IA en contextos no previstos originalmente: desde decisiones sobre salud mental hasta vínculos afectivos.
Últimas Noticias
¿Tu auto te cuida? Así funcionan los asistentes que evitan choques en segundos este 2026
Cada una de estas funciones incrementa la seguridad del conductor, peatones y otros actores viales, además de disminuir el riesgo de accidentes

Advertencia global: artistas ganarán 24% menos por culpa de la inteligencia artificial
La proliferación de música, textos e imágenes generados por algoritmos dificulta la competencia para artistas humanos y profundiza la desigualdad en el acceso a la economía digital

Sam Altman defendió el impacto ambiental de la IA y lo comparó el consumo energético humano
El CEO de OpenAI sostuvo que los centros de datos modernos ya no dependen del agua para refrigeración, aunque advirtió la necesidad de acelerar la transición hacia energías limpias
A más de 100 años: cómo la batería de Edison inspira una nueva era de almacenamiento eficiente
Investigadores de la Universidad de California, Los Ángeles, reinventaron el clásico diseño con materiales accesibles y técnicas de vanguardia, que permite cargas más rápidas y soporta miles de ciclos



