La IA complica los viejos riesgos de la privacidad en Internet

Reportajes Especiales - Business

Guardar
Imagen RWCBECXV25DB5BWWJWV2FNZIX4

(Circuits)

Este mes, un juez federal dictaminó que las conversaciones de un hombre con el chatbot Claude de Anthropic no estaban protegidas por el privilegio abogado-cliente, aunque había utilizado el chatbot con el fin de prepararse para hablar con abogados.

Hace dos semanas, Ring, el fabricante de timbres con cámara propiedad de Amazon, provocó indignación generalizada cuando emitió un anuncio en el Supertazón que mostraba cómo podía utilizarse la inteligencia artificial para encontrar perros perdidos. Los detractores no tardaron en señalar que también podría utilizarse para vigilar todo un vecindario. Desde entonces, la empresa no ha dejado de disculparse.

Además, la semana pasada salieron a la luz noticias de que OpenAI, la empresa que está detrás de ChatGPT, estaba al tanto de las interacciones de una mujer de Columbia Británica con el chatbot y se planteó denunciarla a las autoridades meses antes de que cometiera un tiroteo masivo.

Aunque OpenAI se enfrenta a preguntas sobre si debería haber sido más proactiva a la hora de denunciar lo que la mujer escribió, el incidente puso de relieve la posibilidad de que las empresas de IA se vean sometidas a más presiones para compartir registros privados de chat con las autoridades.

En el centro de estos titulares estaba la IA generativa, la tecnología popularizada por los chatbots que se está introduciendo sigilosamente en las herramientas cotidianas que la gente utiliza para buscar en internet, escribir ensayos y codificar. La cadencia constante de noticias relacionadas con la privacidad de los consumidores plantea interrogantes sobre si la IA ha expuesto la información personal de la gente más que antes.

La realidad, dicen los expertos en privacidad, es que el riesgo asociado a compartir datos con las empresas tecnológicas es más o menos el mismo de siempre. Casi cualquier dato enviado a los servidores de una empresa se puede obtener por empleados, organismos gubernamentales, abogados o delincuentes que hayan adquirido datos a través de lagunas y fallos de seguridad.

Sin embargo, la naturaleza íntima de las conversaciones con un chatbot añade un nuevo giro a un viejo problema: la gente comparte mucho más que antes. A diferencia de una herramienta de búsqueda web tradicional, los chatbots invitan a las personas a escribir pensamientos completos y preguntas de seguimiento, y revelan sus intenciones de forma mucho más explícita.

"Los problemas son, en muchos casos, los mismos, pero es una forma de interactuar con la tecnología que antes no se hacía", afirma Chris Gilliard, estudioso independiente de la privacidad en Detroit. "Cuando eso ocurre, hay que volver a informar a la gente para que comprenda cuáles son las amenazas y los daños".

Es una lección que los usuarios de internet han tenido que aprender y reaprender. Hace unos ocho años, Meta, antes conocida como Facebook, fue objeto de críticas cuando saltó la noticia de que Cambridge Analytica, una consultora política, había acaparado indebidamente los datos de 87 millones de usuarios de Facebook.

Fue un momento decisivo que hizo que la gente se replanteara si compartir o no sus datos personales en internet. Pero fue una lección que ya parece olvidada en la era de los chatbots, a los que la gente recurre en busca de ayuda para el trabajo, terapia e incluso compañía genuina.

OpenAI dijo que daba a la gente el control sobre cómo se utilizaban sus datos, incluida la opción de utilizar chats temporales que no registran las conversaciones en el historial de ChatGPT.

(El New York Times demandó a OpenAI y Microsoft en 2023, y acusó a las compañías de infringir los derechos de autor de contenido periodístico relacionado con los sistemas de IA. Las dos empresas han negado esas acusaciones).

Anthropic dijo que cumplía las leyes vigentes y que puede verse obligada a compartir información cuando se le presenten solicitudes legales válidas.

En el incidente de Jesse Van Rootselaar, la persona identificada por las autoridades como autora de los disparos en Columbia Británica, OpenAI dijo que había bloqueado su cuenta en junio después de que sus mensajes a ChatGPT desencadenaran automáticamente una revisión interna, que incluyó investigaciones por parte de miembros del personal. La empresa dijo que había optado por no compartir información con la policía tras determinar que no había indicios de planificación inminente por parte de la usuaria.

"Proteger la privacidad y la seguridad en ChatGPT es importante, y damos prioridad a la seguridad cuando hay una planificación creíble e inminente de daño en el mundo real", dijo OpenAI en un comunicado. "Nuestros sistemas automatizados escalan las situaciones críticas, como amenazas a la vida o daños graves a terceros, para que una revisión humana limitada tome las medidas necesarias".

Aunque no era de extrañar que OpenAI, como muchas empresas, tuviera un sistema para vigilar los abusos de su servicio, es probable que el incidente genere un debate entre los expertos jurídicos sobre si las empresas de IA deben ser consideradas responsables de las conversaciones que los usuarios mantienen con los chatbots y en qué momento es necesario compartir los datos con la policía, dijo Jennifer Granick, abogada especializada en vigilancia y ciberseguridad de la Unión Estadounidense de Libertades Civiles.

El artículo 230 de la Ley de Decencia en las Comunicaciones suele proteger a las empresas de internet de la responsabilidad por los contenidos publicados por los usuarios en sitios como Facebook, pero no está claro si esas políticas deberían aplicarse de forma similar a los chatbots, ya que las conversaciones son diferentes de las publicaciones en las plataformas, añadió Granick.

"Empezaremos a ver más litigios para aclarar cómo es la responsabilidad de informar a la policía", aseguró.

La historia del chatbot Claude de Anthropic ilustra la confusión que puede surgir cuando la gente trata a un chatbot comercial como una herramienta para tomar notas e investigar. Un juez federal decidió que los fiscales podían tener acceso a las transcripciones de un hombre acusado de fraude electrónico que había chateado con Claude para prepararse para hablar con los abogados. El razonamiento del juez fue que Claude no era abogado y, por tanto, no estaba protegido por el privilegio abogado-cliente. La decisión del juez ha hecho vibrar a los abogados de todo el país porque subraya los peligros potenciales del uso de la IA en comparación con herramientas más antiguas.

En cambio, si un acusado tomara notas y las compartiera solo con un abogado, eso podría estar protegido por el privilegio abogado-cliente, explicó Laura Riposo VanDruff, socia del bufete de abogados Kelley Drye, que se centra en la privacidad del consumidor y la seguridad de los datos. Dado que las comunicaciones con un chatbot se almacenan en los servidores de una empresa, es posible que no estén protegidas legalmente.

Anthropic señaló que el acusado que intentaba proteger las transcripciones de sus conversaciones con Claude mediante el privilegio abogado-cliente había facilitado las transcripciones directamente al tribunal cuando los agentes federales incautaron sus dispositivos, lo que significa que Anthropic no compartió los datos.

Y en el incidente de Ring, el anuncio de la empresa en el Supertazón mostraba al dueño de un perro perdido utilizando una función llamada Search Party, que utiliza IA e imágenes de una red de cámaras de vigilancia domésticas para localizar al perro desaparecido. La empresa aclaró en una entrevista que los propietarios de las cámaras Ring tenían que aceptar compartir información mediante una solicitud de Search Party.

Los riesgos de seguridad derivados del uso de la IA podrían aumentar a medida que las empresas ejercen presión para que los asistentes de IA evolucionen hasta convertirse en los denominados agentes, que requieren acceso a prácticamente todos los datos de una persona en un ordenador o teléfono inteligente para ofrecer ayuda. Google y Microsoft han lanzado este tipo de herramientas de software en los dos últimos años, y se espera que el resto de la industria tecnológica siga su ejemplo.

Magic Cue de Google, una herramienta de software lanzada el año pasado para los teléfonos inteligentes Pixel de la empresa, puede indagar en el correo electrónico de una persona, por ejemplo, para buscar el itinerario de un vuelo y escribir un mensaje de texto automático a un amigo pidiéndole los detalles de su llegada. El Recall de Microsoft, que debutó en los equipos Windows más recientes, tomaba capturas de pantalla de todo lo que hacía un usuario para ayudarlo a buscar archivos importantes o detalles discutidos en una videollamada.

Un mayordomo que pidiera constantemente permiso para ver los datos del calendario, el correo electrónico, los mensajes de texto y otras aplicaciones de un usuario para ofrecerle ayuda a lo largo del día sería perturbador. Por eso, al diseñar agentes, las empresas piden permiso para acceder a todos sus datos personales una sola vez.

Meredith Whittaker, presidenta de la Fundación Signal, la organización sin ánimo de lucro que está detrás de la aplicación de mensajería privada Signal, subrayó los peligros potenciales del acceso sin restricciones de un agente a los datos de una persona.

La consecuencia no deseada es que las comunicaciones destinadas a ser confidenciales, como los mensajes cifrados de Signal de una persona, podrían ser violadas inadvertidamente a través de los sistemas de IA por programas maliciosos y, finalmente, filtrarse, dijo Whittaker.

"Si van a actuar plenamente en tu nombre, tienen que saberlo todo", dijo sobre los agentes de IA. "Tenemos que ser mucho más exigentes. ¿Dónde nos aportan realmente beneficios este tipo de automatizaciones, y dónde son demasiado peligrosas?"

La inteligencia artificial es cómoda y fácil de usar, pero debes pensar en lo que dices a los chatbots. (Derek Abella/The New York Times)