Los datos que coge ChatGPT sobre ti cuando lo utilizas, según una criminóloga: “Son guardados para usos futuros que desconocemos”

Estos sistemas están calificados por la UE como de “riesgo limitado”, por lo que están sujetos a obligaciones de transparencia

Guardar
Una imagen de archivo de
Una imagen de archivo de un teléfono con el logotipo de Chat GPT. (EFE/EPA/ETIENNE LAURENT)

La inteligencia artificial es una revolución que parece no conocer límites. Desde hace años, esta tecnología está presente en ámbitos como la medicina, Defensa, finanzas o en comunicaciones, entre otros muchos.

Pero al igual que ha aportado avances extraordinarios, el rápido crecimiento de esta tecnología también plantea ciertos riesgos que se han convertido en un auténtico quebradero de cabeza a la hora de regularlos. Gran parte de ellos tienen que ver con la recopilación masiva de datos que almacenan para “aprender” constantemente.

Es el caso de modelos de inteligencia artificial de uso general como Chatgpt, probablemente la inteligencia artificial más famosa del mundo. Este programa se basa en dos principios. Primero, en el ‘preentrenamiento’, a través del cual analiza una enorme cantidad de texto para entender cómo se usa el lenguaje, prediciendo palabras según el contexto. Luego, está lo que se conoce como el ajuste fino, donde se le enseña a responder de manera más útil y específica, usando ejemplos y correcciones humanas.

Cómo blindar nuestros datos

La criminóloga María Aperador, conocida en las redes como @mariaperadorcriminologa, advierte que incluso este tipo de aplicaciones con las que podemos conversar amigablemente pueden convertirse en un arma de doble filo a la hora de proteger nuestros datos.

Aperador explica Chatgpt no solo va actualizando la información que recoge de Internet, sino que también “utiliza tus propias conversaciones para entrenar modelos futuros”. “Esto significa que todos los chats que utilizamos, en los que compartimos información personal, como datos fiscales, información personal, problemas médicos o psicológicos, son guardados en sus bases de datos para usos futuros que desconocemos”, detalla la criminóloga.

Matemáticos, físicos y expertos en inteligencia artificial y digitalización se convierten en objeto de deseo de los bancos.

Para evitar esto, Aperador apunta que es posible configurar Chatgpt para que no almacene nuestras conversaciones. Para ello, primero debes entrar en Chatgpt y dirigirte a la opción de Ajustes. A continuación, busca la opción de privacidad o Data Controls y luego dale a la opción que dice Guardar historial de chats y desliza el interruptor para desactivarla. “Ahora tus chats ya no van a ser utilizados para entrenar modelos futuros y se van a eliminar cada 30 días”, subraya la criminóloga.

No todas las IA están permitidas

La Unión Europea establece cuatro niveles a la hora de evaluar el riesgo de un sistema de inteligencia artificial. Por ejemplo, los juegos o los filtros de ‘correo no deseado’ basados en la IA no presentan riesgos para los ciudadanos y por tanto, no están sujetos a regulaciones por la legislación europea. En el caso de los chatbots como Ghatgpt están calificados de “riesgo limitado”, el segundo nivbel, y en estos casos están sujetos a obligaciones de transparencia al tratar con datos personales.

Dentro de los permitidos, existen también los sistemas de IA calificados de “alto riesgo”, que pueden utilizarse en tecnologías muy útiles como el diagnóstico de enfermedades, la conducción autónoma o sistemas biométricos de personas implicadas en actividades delictivas u objeto de investigaciones penales. El Consejo Europeo explica en su página web que en estos casos están sujetos a controles de transparencia y supervisión humana muy estrictos para acceder al mercado de la UE.

Por otro lado, hay determinados sistemas que están totalmente prohibidos en la UE como, por ejemplo, el uso de sistemas de identificación biométrica remota en tiempo real o el reconocimiento facial en espacios públicos por parte de las autoridades encargadas del cumplimiento de la ley, salvo en casos excepcionales.

Además, según la normativa, prácticas como la puntuación ciudadana, el reconocimiento de emociones en lugares de trabajo o centros educativos, la actuación policial predictiva y la manipulación cognitiva conductual también están vetadas.

Inteligencia Artificial para proteger los tanques del Ejército: diseñan un innovador visor 360º para el ‘8x8 Dragón’.

Últimas Noticias

Miami, Houston y Atlanta: cuánto cuesta viajar a las tres sedes en las que jugará España en la fase de grupos del Mundial 2026

La Roja se enfrentará a Cabo Verde, Arabia Saudí y Uruguay los días 14, 21 y 26 de junio con motivo de la Copa del Mundo en Estados Unidos

Miami, Houston y Atlanta: cuánto

Abrió como un bar de bocadillos y ahora recibe una estrella Michelin: así es el restaurante del chef Rubén Coronas en una aldea del Pirineo

Rubén Coronas y Cristina Romero, él tras los fogones y ella al frente de la sala, dan vida a este restaurante familiar que se esconde bajo una preciosa bóveda de piedra de 1593

Abrió como un bar de

El diputado de Ayuso al que le “ponen” los enfados de la portavoz de Más Madrid: con sueldo público desde hace 25 años y multa de 10.000 euros por olvidarse de casar a unos novios cuando era concejal

Ángel Alonso Bernal ha saltado al foco mediático tras sus desafortunadas palabras contra las diputadas de Más Madrid. A sus 51 años lleva trabajando para el PP o para Administraciones populares desde 2000

El diputado de Ayuso al

Juan Carlos I confiesa en sus memorias que no le gusta que le digan ‘emérito’: “Conservo de por vida el título honorífico de Rey”

El padre de Felipe VI ha mostrado su lado más personal en su libro ‘Reconciliación’, publicado en España el pasado 3 de diciembre

Juan Carlos I confiesa en

Carne de pato para los faraones, lechugas para los campesinos: así era la dieta en el Antiguo Egipto

La alimentación de los egipcios era muy variada, especialmente para la élite que tenía acceso a todo tipo de productos

Carne de pato para los
MÁS NOTICIAS