
Miles de personas compartieron en redes sociales sus figuras de acción digitales creadas a partir de fotos personales mediante Gemini 2.5 Flash —también conocido como Nano Banana—, la nueva inteligencia artificial de Google enfocada en la generación de imágenes.
Esta tendencia ha hecho viral el fenómeno de convertir la identidad de los usuarios en objetos de colección virtual, pero la experiencia reciente con tecnologías similares advierte sobre consecuencias que pueden afectar la privacidad, la seguridad de datos y la suplantación de identidad.
Filtraciones y malas prácticas en el uso de datos
Existen otros casos emblemáticos donde el uso aparentemente inofensivo de tecnologías de procesamiento de imágenes y reconocimiento facial terminó por comprometer a millones de personas. Uno de ellos fue el de Clearview AI, una compañía que funcionaba desde 2020 como un buscador de rostros, similar a los tradicionales motores de búsqueda, pero especializado en identificar personas a partir de fotografías. Clearview recopilaba datos de plataformas abiertas como redes sociales, páginas de revistas y blogs, y consolidaba una base de información biométrica masiva.

En 2022, la compañía enfrentó litigios con la Unión Americana de Libertades Civiles (ACLU) en Estados Unidos, lo que derivó en restricciones para comercializar el software de reconocimiento facial a entidades que no sean gubernamentales. Aunque mantuvo sus operaciones, la firma no logró esquivar disputas legales y sanciones económicas en diferentes países debido a la utilización y almacenamiento masivo de datos sensibles sin consentimiento claro de los afectados.
Otra muestra significativa fue el incidente registrado en Outabox, una empresa australiana dedicada a sistemas de reconocimiento facial usados en espacios de ocio nocturno. En mayo de 2024, se reportó una fuga de información confidencial, entre la que figuraban datos biométricos de reconocimiento facial, identificaciones escaneadas, firmas, membresías, domicilios, fechas de nacimiento, números telefónicos, registros de visitas y uso de máquinas tragamonedas provenientes de 19 clubes ubicados en Nueva Gales del Sur y el Territorio de la Capital Australiana.
Según individuos que declararon haber trabajado antes como desarrolladores en Outabox, la validación de la información filtrada se hizo a través de un sitio web que demostró la magnitud del acceso no autorizado a los datos. El operador ClubsNSW contrató los servicios de Outabox, y la brecha de seguridad impactó en una cantidad considerable de clientes sin su conocimiento directo ni consentimiento explícito sobre el destino de su información personal.
Entregar privacidad a cambio de entretenimiento

La inquietud no quedó solo en el pasado. En 2025, muchos usuarios recurrieron a plataformas como ChatGPT y otras IA para crear imágenes propias en el estilo de animación de Studio Ghibli. Subieron retratos personales que pasaron directamente a nutrir nuevos modelos de generación.
Esta práctica, aunque trivial en apariencia, expone el problema central en los actuales servicios basados en inteligencia artificial: estas tecnologías requieren volúmenes masivos de datos personales, sensibles y confidenciales, obtenidos mediante métodos donde casi nunca se explica con claridad el alcance real de la recopilación.
La exposición de esta información no solo facilita posibles fugas y robos perpetrados por ciberdelincuentes, sino que además aumenta la probabilidad de suplantación de identidad y fraude digital, porque el material fue proporcionado voluntariamente por los propios usuarios. La ausencia de controles robustos en el almacenamiento y procesamiento seguro de estos datos, como quedó en evidencia en el episodio de Outabox, extiende las oportunidades para ataques y vulneraciones.

Además, la recolección masiva de datos suele realizarse sin consentimiento informado de los usuarios. En muchos casos, quienes eligen estos servicios ignoran el destino final de sus fotos y datos personales y desconocen si quedarán reutilizados, almacenados indefinidamente o transferidos a terceros. Desde el punto de vista legal, ese escenario supone un grave defecto en el consentimiento y hace opacos los fines para los que esos datos resultan empleados.
Finalmente, la falta de transparencia y explicabilidad en los algoritmos y políticas de privacidad genera fricciones con las normativas locales e internacionales. Algunas empresas informan mediante cláusulas explícitas que las imágenes se emplearán para mejorar sus modelos de IA, pero la complejidad y la longitud de los documentos de privacidad coloca a los usuarios en una situación en la que difícilmente pueden comprender el alcance real de la cesión de derechos sobre sus propios datos.
Últimas Noticias
Criptomonedas: cuál es la cotización de ethereum este 21 de enero
Ethereum fue creada en 2015 por el programador Vitalik Buterin, con la intención de impulsar una herramienta para aplicaciones descentralizadas y colaborativas

El costo de bitcoin para este 21 de enero
La criptomoneda más popular del mercado de activos digitales

El primer envío de electricidad a tierra desde un avión revoluciona la tecnología renovable
La hazaña de la startup Overview Energy en los cielos estadounidenses permitió imaginar nuevos modelos de transferencia energética sin cables. Según IEEE Spectrum, tiene un potencial para transformar infraestructuras futuras

ChatGPT buscará identificar si un usuario es menor de 18 años para adaptar sus respuestas
OpenAI anunció la implementación de un sistema automatizado para estimar la edad de los usuarios de ChatGPT, con el objetivo de reforzar las medidas de protección

El mundo empieza a poner límites al uso de redes sociales: qué países avanzan y cuáles se resisten
El debate sobre el acceso de menores a redes sociales se intensifica en distintos países, con nuevas leyes, estrategias familiares y demandas de intervención estatal


