
Hay algo que la mayoría de los usuarios de inteligencia artificial todavía no entendió, y un juez federal de Nueva York se encargó de ponerlo por escrito en febrero de este año. Cada conversación con ChatGPT, con Claude, con Gemini, con Copilot, es prueba potencial en un juicio en tu contra. No metáfora. No advertencia preventiva. Prueba, en el sentido procesal del término: documento secuestrable, citable, exhibible ante un jurado.
El fallo se llama United States v. Heppner. El protagonista es Bradley Heppner, ex chairman de GWG Holdings, una financiera que vendía bonos a jubilados y quebró en 2022 dejando pérdidas que superaron los USD 1.000 millones. Está imputado por fraude bursátil y de uso de medios electrónicos.
Después de recibir la citación del gran jurado y antes de su arresto en noviembre de 2025, Heppner hizo lo que millones hacen todos los días: abrió un chatbot y le contó su problema. Usó la versión gratuita de Claude para preparar 31 documentos con su estrategia de defensa, los hechos, los argumentos legales, las preguntas que le iba a hacer a sus abogados. Cuando el FBI allanó su casa el mismo día del arresto, secuestró los dispositivos electrónicos donde estaban esos archivos.
Sus abogados pidieron al juez que los protegiera bajo secreto profesional. El juez Jed Rakoff, uno de los magistrados más respetados del distrito sur de Nueva York, dijo que no.
El chatbot no es tu abogado, es un tercero al que le abriste la puerta
El razonamiento de Rakoff es brutal por simple. Hablar con una IA no es hablar con un profesional sujeto a secreto. Es hablar con un servidor de una empresa privada que en su política de privacidad reserva el derecho a entregar tus datos a autoridades regulatorias y a usarlos para entrenar el modelo. Heppner no podía tener “expectativa razonable de confidencialidad”, escribió el juez, porque al apretar “aceptar” había firmado un contrato que decía exactamente lo opuesto. La situación es legalmente equivalente a contarle el caso a un amigo en un bar.
Lo que distingue al fallo de un alerta jurídico abstracto es que se trata del primer pronunciamiento federal del país sobre el tema. Más de una docena de estudios de abogados de Wall Street emitieron alertas a clientes en las últimas semanas.

La firma neoyorquina Sher Tremonte agregó una cláusula específica en sus contratos: si se comparte asesoramiento legal con un chatbot, se pierde el privilegio. Crowell & Moring, Debevoise & Plimpton, Orrick y Kobre & Kim recomendaron a sus clientes adoptar el mismo criterio: tratar las plataformas de IA pública como entornos no confidenciales y asumir que cualquier prompt puede ser citado
El razonamiento aplica más allá de Claude, aclararon los analistas. La investigadora Jennifer King, del Stanford HAI, revisó las políticas de privacidad de las seis grandes —Amazon, Anthropic, Google, Meta, Microsoft y OpenAI— y concluyó que todas se reservan derechos similares. Plataformas como ChatGPT, Gemini, Copilot, Meta AI y Perplexity responden al mismo principio y presentan el mismo nivel de exposición.
Por qué le contás a un chatbot lo que no le contás a nadie
La pregunta de fondo no es legal, es psicológica. La evidencia académica acumulada en los últimos años muestra un patrón claro: la mayoría de los estudios sobre interacción con agentes conversacionales encuentra que la gente se abre más con un chatbot que con un humano.
Frente a una pantalla que no juzga, que responde con tono empático, que está disponible las 24 horas, los usuarios bajan la guardia. La percepción de anonimato y la ausencia de juicio social son los dos factores que la literatura identifica una y otra vez como motores de esa sobreconfesión.

Un estudio del King’s College London publicado en 2025 mostró el lado oscuro de esa misma dinámica. Chatbots diseñados para extraer información personal lograron hasta 12,5 veces más datos sensibles que sistemas estándar, usando estrategias de reciprocidad conversacional. Los participantes apenas notaron el riesgo. Eso último, que el riesgo no se note, es lo que vuelve crítico el fallo Rakoff: la herramienta que invita a confesar es la misma que entrega la confesión cuando un fiscal se la pide.
Y no es solo un problema de imputados por fraude evadiendo a la justicia. El fallo aplica igual a divorcios, juicios laborales, auditorías fiscales, investigaciones regulatorias, conflictos comerciales... Cualquier procedimiento donde una contraparte pueda pedir documentos en discovery.
Si vos, ejecutivo en Buenos Aires, Bogotá, Ciudad de México o Madrid, le pediste a ChatGPT que te ayude a “ordenar ideas” sobre un litigio con un proveedor, sobre una inspección impositiva, sobre cómo responder un sumario interno, estás generando prueba.
Lo que cambia esta semana, también para Latam y España
El fallo es de Nueva York, pero el principio de discoverability viaja. Las cortes argentinas, mexicanas, colombianas y españolas no van a tardar años en encontrarse el primer caso. Cuando lo hagan, el precedente Rakoff va a estar arriba de la mesa, citado en los memoriales.
Las empresas de la región que estén firmando acuerdos enterprise con OpenAI o Anthropic tienen una pregunta nueva que hacerle al vendor antes de pasar al área legal: ¿qué dice exactamente la cláusula de retención y entrega de datos a autoridades?
La distinción importa. Las versiones enterprise (Claude for Work, ChatGPT Team o Enterprise, Gemini for Workspace) incluyen compromisos contractuales de no entrenamiento sobre los datos del cliente y términos de confidencialidad reforzados. Pero ninguna corte falló todavía que la versión enterprise garantice privilegio. Es un atenuante, no un escudo.
Hay un detalle del propio fallo Rakoff que abre una puerta. El juez sugirió que si los abogados de Heppner le hubieran dado instrucciones expresas de usar Claude, bajo la doctrina Kovel el chatbot podría haber sido tratado como un agente del estudio. La diferencia es quién manda a usar la herramienta. El cliente solo, no. El cliente bajo dirección de su abogado, tal vez. Esa es la única vía que dejó Rakoff.
Hace cinco años, pensar en voz alta era gratis. Hace tres, pensar en voz alta con una IA era una novedad cómoda. Hoy, pensar en voz alta con una IA es generar archivo. La diferencia entre un usuario adulto y uno expuesto va a ser, de acá en adelante, qué entiende sobre la palabra “aceptar”.
La IA no es tu confidente. Es un servidor con memoria, contrato y dirección legal. Y desde el fallo Heppner, también es un testigo dispuesto a declarar.
Últimas Noticias
República Dominicana intercepta cargamento de marihuana sintética oculto en electrodomésticos procedentes de Miami
Una operación coordinada permitió descubrir más de un millar de paquetes de presunta droga sintética en un contenedor que arribó desde Miami, evidenciando los nuevos métodos del narcotráfico internacional para evadir controles aduaneros y portuarios

Cómo fue que el tirador logró introducir un arma en la cena de los corresponsales de la Casa Blanca y acercarse tanto a Trump
Las autoridades afirmaron que el autor, identificado tras enviar un manifiesto a sus familiares, habría planificado un atentado selectivo contra miembros de la administración federal según datos recabados tras su detención

Donald Trump atribuyó el ataque en la cena de corresponsales a un posible odio anticristiano
La hipótesis de un trasfondo ideológico se afianza luego de que el mandatario declarara que el sospechoso habría actuado motivado por hostilidad hacia una confesión, según información preliminar
Objetos prohibidos son incautados en la Granja Modelo de Rehabilitación Cantel, Guatemala
En las últimas horas, la Granja Modelo de Rehabilitación Cantel fue intervenida por las autoridades, sumándose a una serie de requisas que iniciaron el día anterior en la cárcel de máxima seguridad Renovación I, donde también se decomisaron drogas y dispositivos electrónicos.

Rebajas puntuales en kerosene y gas vehicular no frenan nueva ola de alzas en combustibles en Honduras
La nueva estructura de precios de los combustibles trae alivios limitados para los consumidores, mientras crece el debate sobre la sostenibilidad de los subsidios estatales.




