
En Grecia, una mujer pidió el divorcio después de que ChatGPT interpretara los restos de café en su taza y sugiriera que su esposo le era infiel.
La situación comenzó con una actividad doméstica común. La pareja preparó café griego, una bebida espesa que, por tradición, deja residuos en el fondo de la taza.
En medio de una tendencia creciente en redes sociales, la mujer fotografió los restos del café y le pidió a ChatGPT que los interpretara, como si se tratara de una sesión de tasseografía, también conocida como lectura de posos.
El resultado, según su relato, fue una revelación inesperada: el modelo de IA habría descrito que su esposo fantaseaba con una mujer cuyo nombre comenzaba con “E” y que esa persona pretendía destruir su familia. A partir de esa lectura, la mujer solicitó el divorcio.

El esposo, en declaraciones al programa griego To Proino, aseguró que tomó la situación como una broma: “Me reí y lo tomé como una tontería. Pero ella no. Me dijo que me fuera, les informó a nuestros hijos sobre el divorcio, y lo siguiente que supe fue que me llamó su abogado”.
El caso ha generado un amplio debate sobre el uso de inteligencia artificial en contextos personales, así como sobre la creciente popularidad de prácticas esotéricas reinterpretadas mediante tecnologías automatizadas.
Debate legal
El caso ha llegado a los tribunales. El abogado del hombre sostiene que la acusación carece de fundamentos válidos: “Él es inocente hasta que se demuestre lo contrario”, afirmó al Greek City Times, e insistió en que una interpretación automatizada de residuos de café no tiene valor legal.
En paralelo, practicantes de tasseografía tradicional criticaron el procedimiento, señalando que una lectura seria no se realiza solo a partir de fotografías, y que se deben analizar múltiples elementos, como la espuma, el remolino o incluso el platillo.

El esposo también reconoció que su pareja ya tenía antecedentes de interés en prácticas no convencionales. Según sus palabras, ella había seguido durante un año las predicciones de un astrólogo, por lo que esta consulta a la inteligencia artificial no fue un episodio aislado.
Tasseografía e inteligencia artificial: entre tradición y algoritmo
La tasseografía es una práctica ancestral, asociada con la lectura simbólica de los restos en bebidas como café o té. Su interpretación ha dependido históricamente de la experiencia subjetiva del lector.
Con la popularización de herramientas como ChatGPT, algunas personas han comenzado a delegar esa “lectura” a modelos de lenguaje entrenados con grandes volúmenes de texto, lo que permite que el sistema produzca interpretaciones que simulan el estilo adivinatorio, aunque sin comprender su contexto.
Sin embargo, ChatGPT, como otros modelos de IA generativa, no tiene conciencia ni conocimiento real de imágenes ni símbolos. Su funcionamiento se basa en el procesamiento estadístico de secuencias de texto, completando frases según patrones derivados de entrenamiento.

En el caso mencionado, la supuesta infidelidad surgió de una descripción generada a partir de una imagen y una solicitud subjetiva, no de una evaluación factual o verificable.
Reacciones en redes y dilemas contemporáneos
El episodio ha generado un amplio debate en redes sociales, especialmente en Grecia. Mientras algunos usuarios defendieron la decisión de la mujer argumentando que la IA simplemente reflejó una sospecha latente, otros cuestionaron la racionalidad de una decisión tan trascendental tomada en función de una interpretación no verificable.
Este tipo de episodios plantea preguntas sobre el rol de las tecnologías automatizadas en la vida cotidiana, especialmente cuando se convierten en mediadoras de emociones, conflictos o decisiones personales.

Según especialistas en comunicación digital, como la investigadora estadounidense Kate Crawford, la IA no es neutral: sus respuestas dependen de los datos que procesan y de las expectativas que proyectan sus usuarios.
“Los sistemas de inteligencia artificial reflejan nuestras estructuras sociales, nuestros prejuicios y también nuestras obsesiones”, escribió en su libro Atlas of AI, publicado a través de Yale University Press.
Casos como este ponen en evidencia la manera en que tecnologías diseñadas para tareas generales de procesamiento textual son incorporadas en esferas altamente sensibles. Aunque el episodio puede parecer anecdótico, refleja un uso cada vez más extendido de la IA en contextos no previstos originalmente: desde decisiones sobre salud mental hasta vínculos afectivos.
Últimas Noticias
Eficiencia, riesgos y desafíos: la inteligencia artificial revoluciona los hospitales en Estados Unidos
La incorporación de asistentes digitales y herramientas automatizadas agiliza tareas y reduce la carga administrativa, pero también genera preocupación entre médicos y enfermeros por posibles errores y desafíos en la atención al paciente

App de inteligencia artificial en Android deja al descubierto millones de archivos personales
La vulnerabilidad permitió que cualquier persona pudiera acceder a los archivos subidos o generados por los usuarios, sin ningún tipo de autenticación ni restricción

¿Te grabaron sin permiso? La millonaria multa a empresas en Colombia por el uso de cámaras
La preferencia por sistemas integrados y criterios de transparencia están impulsando grandes cambios en la forma en que se administra y resguarda la información en el país

Alerta del MIT: los chatbots fallan más cuando el usuario es vulnerable
Según la investigación, Claude 3 Opus mostró un rendimiento inferior con usuarios de Irán en comparación con los de Estados Unidos

¿Tu auto te cuida? Así funcionan los asistentes que evitan choques en segundos este 2026
Cada una de estas funciones incrementa la seguridad del conductor, peatones y otros actores viales, además de disminuir el riesgo de accidentes


