
En Grecia, una mujer pidió el divorcio después de que ChatGPT interpretara los restos de café en su taza y sugiriera que su esposo le era infiel.
La situación comenzó con una actividad doméstica común. La pareja preparó café griego, una bebida espesa que, por tradición, deja residuos en el fondo de la taza.
En medio de una tendencia creciente en redes sociales, la mujer fotografió los restos del café y le pidió a ChatGPT que los interpretara, como si se tratara de una sesión de tasseografía, también conocida como lectura de posos.
El resultado, según su relato, fue una revelación inesperada: el modelo de IA habría descrito que su esposo fantaseaba con una mujer cuyo nombre comenzaba con “E” y que esa persona pretendía destruir su familia. A partir de esa lectura, la mujer solicitó el divorcio.

El esposo, en declaraciones al programa griego To Proino, aseguró que tomó la situación como una broma: “Me reí y lo tomé como una tontería. Pero ella no. Me dijo que me fuera, les informó a nuestros hijos sobre el divorcio, y lo siguiente que supe fue que me llamó su abogado”.
El caso ha generado un amplio debate sobre el uso de inteligencia artificial en contextos personales, así como sobre la creciente popularidad de prácticas esotéricas reinterpretadas mediante tecnologías automatizadas.
Debate legal
El caso ha llegado a los tribunales. El abogado del hombre sostiene que la acusación carece de fundamentos válidos: “Él es inocente hasta que se demuestre lo contrario”, afirmó al Greek City Times, e insistió en que una interpretación automatizada de residuos de café no tiene valor legal.
En paralelo, practicantes de tasseografía tradicional criticaron el procedimiento, señalando que una lectura seria no se realiza solo a partir de fotografías, y que se deben analizar múltiples elementos, como la espuma, el remolino o incluso el platillo.

El esposo también reconoció que su pareja ya tenía antecedentes de interés en prácticas no convencionales. Según sus palabras, ella había seguido durante un año las predicciones de un astrólogo, por lo que esta consulta a la inteligencia artificial no fue un episodio aislado.
Tasseografía e inteligencia artificial: entre tradición y algoritmo
La tasseografía es una práctica ancestral, asociada con la lectura simbólica de los restos en bebidas como café o té. Su interpretación ha dependido históricamente de la experiencia subjetiva del lector.
Con la popularización de herramientas como ChatGPT, algunas personas han comenzado a delegar esa “lectura” a modelos de lenguaje entrenados con grandes volúmenes de texto, lo que permite que el sistema produzca interpretaciones que simulan el estilo adivinatorio, aunque sin comprender su contexto.
Sin embargo, ChatGPT, como otros modelos de IA generativa, no tiene conciencia ni conocimiento real de imágenes ni símbolos. Su funcionamiento se basa en el procesamiento estadístico de secuencias de texto, completando frases según patrones derivados de entrenamiento.

En el caso mencionado, la supuesta infidelidad surgió de una descripción generada a partir de una imagen y una solicitud subjetiva, no de una evaluación factual o verificable.
Reacciones en redes y dilemas contemporáneos
El episodio ha generado un amplio debate en redes sociales, especialmente en Grecia. Mientras algunos usuarios defendieron la decisión de la mujer argumentando que la IA simplemente reflejó una sospecha latente, otros cuestionaron la racionalidad de una decisión tan trascendental tomada en función de una interpretación no verificable.
Este tipo de episodios plantea preguntas sobre el rol de las tecnologías automatizadas en la vida cotidiana, especialmente cuando se convierten en mediadoras de emociones, conflictos o decisiones personales.

Según especialistas en comunicación digital, como la investigadora estadounidense Kate Crawford, la IA no es neutral: sus respuestas dependen de los datos que procesan y de las expectativas que proyectan sus usuarios.
“Los sistemas de inteligencia artificial reflejan nuestras estructuras sociales, nuestros prejuicios y también nuestras obsesiones”, escribió en su libro Atlas of AI, publicado a través de Yale University Press.
Casos como este ponen en evidencia la manera en que tecnologías diseñadas para tareas generales de procesamiento textual son incorporadas en esferas altamente sensibles. Aunque el episodio puede parecer anecdótico, refleja un uso cada vez más extendido de la IA en contextos no previstos originalmente: desde decisiones sobre salud mental hasta vínculos afectivos.
Últimas Noticias
¿El fin de los juegos AAA? Por qué los desarrolladores independientes y jugadores ya dominan la industria
Una explosión de creatividad colectiva está desplazando del centro a los clásicos estudios, mientras las plataformas y los desarrolladores independientes transforman la experiencia de jugar

Tomás Balmaceda: “Ya hay bots que contratan humanos para tareas que antes eran imposibles de automatizar”
El avance de la inteligencia artificial ya impacta en el día a día: algoritmos eligen empleados humanos para funciones básicas. El debate sobre el futuro del empleo y las habilidades indispensables fue eje en Infobae al Mediodía

Cómo limitar Meta AI en WhatsApp y cuidar tu privacidad
Los usuarios tienen la opción de borrar el chat con esta inteligencia artificial y pedir que se eliminen los datos vinculados que conserva Meta en sus servidores

Tu celular tiene un “cargador oculto”: cómo dar batería a otro móvil sin enchufes
Una funcionalidad integrada en un HONOR Magic 8 LIte brinda respaldo en situaciones donde mantener otros dispositivos activos se vuelve prioritario

Google DeepMind diseña las reglas para que los robots de IA trabajen en equipo sin volverse incontrolables
Nuevos esquemas introducen mecanismos de reputación y verificación para fortalecer la confianza sin diluir responsabilidades en operaciones digitales avanzadas



