
La inteligencia artificial ya no solo procesa datos, sino que interpreta emociones y conductas humanas en tiempo real. Mientras tanto, la legislación permanece anclada en conceptos del pasado, según revela una investigación de Leire Escajedo San-Epifanio, profesora de Derecho Constitucional en la Universidad del País Vasco.
Este desfase entre la innovación tecnológica y la regulación jurídica plantea interrogantes sobre la protección de derechos fundamentales y la transparencia en el uso de sistemas biométricos no identificantes.
PUBLICIDAD
El estudio, titulado “Tratamientos biométricos no identificantes mediante inteligencia artificial”, expone cómo las tecnologías actuales son capaces de deducir estados emocionales y patrones de comportamiento a partir de señales corporales, sin que la persona lo haya expresado de forma directa.
La investigación advierte que la normativa europea, tanto el Reglamento General de Protección de Datos como el Reglamento Europeo de Inteligencia Artificial, aún no aborda de manera adecuada estos nuevos escenarios.
PUBLICIDAD

Cómo la IA interpreta emociones y conductas
Teléfonos móviles, asistentes virtuales, plataformas de atención al cliente y videojuegos utilizan tecnologías relacionadas con la biometría que, en lugar de identificar a la persona, buscan interpretar su estado anímico y su comportamiento en cada momento.
Estos sistemas pueden detectar si una persona está atenta, muestra interés o cansancio, cuánto tiempo se detiene ante determinado contenido y cómo reacciona a los estímulos digitales. La información recogida se utiliza para personalizar la experiencia del usuario, ajustando desde vídeos hasta anuncios o mensajes destinados a captar la atención e incluso influir en la toma de decisiones.
PUBLICIDAD
A diferencia de las aplicaciones tradicionales de la biometría, como el reconocimiento de huellas dactilares o el desbloqueo facial, en este caso el objetivo no es la identificación, sino la interpretación del comportamiento humano y de los estados emocionales.
El salto tecnológico consiste en pasar de registrar datos explícitos proporcionados por el usuario a deducir información íntima y subjetiva sin mediación consciente.
PUBLICIDAD

Riesgos para los derechos fundamentales y la libertad personal
La investigación de Escajedo San-Epifanio identifica riesgos sustanciales en el uso de tecnologías biométricas no identificantes. Uno de los principales es la posibilidad de influir en las decisiones individuales mediante la adaptación continua del entorno digital, basada en el comportamiento observado.
Esto compromete la libertad personal, ya que el usuario puede ser guiado o condicionado sin ser plenamente consciente de cómo ocurre ese proceso.
PUBLICIDAD
Además, la clasificación automática de las personas según su comportamiento introduce problemas de desigualdad, al crear perfiles que pueden ser utilizados para discriminar o segmentar a los usuarios. El estudio alerta de la falta de transparencia respecto a qué datos se generan, cómo se utilizan y con qué fines.
El consentimiento informado, en la práctica, resulta insuficiente: aceptar términos y condiciones no equivale a comprender el alcance real de la información recopilada ni las formas en que puede condicionar las decisiones cotidianas.
PUBLICIDAD
Estos riesgos no suelen manifestarse de manera inmediata. En lugar de una decisión única y concreta, los sistemas introducen pequeños ajustes continuos que, acumulados en el tiempo, pueden modificar el comportamiento de los usuarios. Este fenómeno dificulta la detección y el control de los efectos sobre la autonomía y la privacidad.

La disparidad entre el avance de la tecnología y la regulación
El desfase entre el avance de la Ia y la lentitud del Derecho en adaptarse es una de las principales conclusiones del estudio. La legislación vigente fue concebida para contextos en los que la recogida de datos era puntual y explícita, o para decisiones automatizadas claramente identificables.
PUBLICIDAD
Sin embargo, los sistemas actuales operan de manera continua, extrayendo conclusiones sobre el comportamiento sin encajar en las categorías jurídicas existentes.
El Reglamento General de Protección de Datos, aprobado en 2016, se centraba en la identificación de las personas mediante biometría, pero no anticipó el uso de estas tecnologías para interpretar emociones o modular la conducta. Por su parte, el Reglamento Europeo de Inteligencia Artificial, aún reciente, no ha otorgado suficiente relevancia a estas aplicaciones, a pesar del impacto que tienen en la vida diaria.
PUBLICIDAD
La investigación subraya que el problema no se soluciona exclusivamente con informar al usuario. Es necesario evaluar los riesgos de estos sistemas antes de su implantación, identificar el tipo de información que generan y establecer límites claros cuando puedan afectar derechos fundamentales.
El estudio propone pautas prácticas para que empresas y autoridades actúen de manera preventiva, asegurando la transparencia y el respeto a la autonomía personal.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Con una curiosa tecnología, Nintendo cambiará la forma de jugar Mario Kart
El objetivo es mejorar la accesibilidad visual y la toma de decisiones dentro del juego

Así se verían Las Guerreras K-pop si estuvieran dentro del mundo de Pokémon
La IA también cree que Zeraora, Ceruledge y Meloetta serían los Pokémon principales de estos personajes de Netflix

La frase que se le escapó al CEO de Nvidia y que contradice a toda la industria
Nvidia vende infraestructura, Microsoft vende copilotos amables y Anthropic suavizó su pronóstico de baño de sangre laboral, pero frente a 5.800 graduados de Carnegie Mellon, Jensen Huang dijo lo que ningún otro CEO sostiene en público

Cómo saber si mi pareja espía mi WhatsApp u otras aplicaciones en el teléfono: señales y qué hacer
Revisa el consumo de datos, detecta actividad extraña y sigue los consejos para limpiar y asegurar tu teléfono, evitando intrusiones y protegiendo tu intimidad




