
Una firma multimillonaria en Hong Kong perdió 200 millones de HKD (dólar de Hong Kong) equivalentes a casi 26 millones de dólares, después de que un deepfake del Director Financiero lograra engañar a un empleado para autorizar una transferencia fraudulenta.
Este incidente marca un hito al ser una de las primeras veces que se involucran múltiples identidades falsificadas creadas con inteligencia artificial (IA) en una sola estafa, complicando aún más la tarea de distinguir entre lo real y lo falso en el mundo.
La estafa se llevó a cabo mediante una videoconferencia, en la que el empleado fue convencido por varios participantes generados por IA, incluyendo una recreación convincente del CFO (Chief Financial Officer o Director de finanzas), lo que llevó a bajar su guardia.

Según reportes de medios locales, este incidente no es aislado, y la Oficina de Ciberseguridad, Tecnología y Delincuencia de Hong Kong ha observado un incremento en fraudes similares.
El superintendente, Baron Chan, detalló la sofisticación creciente de estos ataques, enfatizando la dificultad de protegerse contra ellos.
La tecnología deepfake ha demostrado su capacidad para generar contenido falso indistinguible de la realidad, lo que resalta la urgencia de mejorar las medidas de seguridad y regulaciones en torno a la IA.
La proliferación de deepfakes no se limita a fraudes financieros. En New Hampshire, Estados Unidos, personas recibieron llamadas falsas usando la voz del presidente de ese país, Joe Biden, y en Baltimore, se generó un clip de audio falso del director de un instituto con declaraciones racistas.

Además, la cantante, Taylor Swift, fue objetivo de creaciones deepfake con contenido explícito. Estos incidentes subrayan la capacidad de esta tecnología para influir en la política, socavar reputaciones y generar desinformación.
Expertos, como el profesor Hany Farid de la Universidad de California, Berkeley, señalan la creciente dificultad para detectar este tipo de contenido.
Él también cuestiona la falta de regulaciones que enfrentan las empresas que desarrollan estas tecnologías. La necesidad de legislación que evolucione al ritmo de estos avances es evidente, así como la implementación de métodos de detección más eficaces y accesibles.

Con la inteligencia artificial avanzando a pasos agigantados, la sociedad se ve ante el reto de adaptarse y encontrar formas de coexistir de manera segura y ética con estas tecnologías.
Los incidentes recientes recalcan la importancia de una vigilancia y escepticismo saludables ante el contenido digital, especialmente en lo que respecta a figuras públicas y decisiones críticas.
El caso de la empresa en Hong Kong y otros similares demuestran la vulnerabilidad ante la manipulación digital y la necesidad urgente de actuar para protegerse contra estas amenazas emergentes.

Cómo reconocer un deepfake o información falsa
Según el centro cibernético de Kaspersky, reconocer un ‘deepfake’ puede ser complicado ya que las técnicas de manipulación digital evolucionan constantemente. Estos son algunos de los consejos que puedne funcionar para evitar ser víctima de estas suplantaciones:
-Anomalías faciales y corporales: es clave buscar incoherencias en los movimientos faciales, expresiones o movimientos corporales que parezcan extraños o poco naturales. Por ejemplo, desalineaciones en los ojos, la boca u otras partes de la cara.

-Sincronización labial y expresiones: se debe comprobar que las palabras correspondan con los movimientos de los labios y que las expresiones faciales sean apropiadas con el contexto del video.
-Iluminación y sombreado: evaluar si la iluminación del rostro corresponde con el entorno. Las incoherencias en la iluminación pueden indicar manipulación.
-Conciencia y educación: tener interés sobre este tema y aprender sobre las tecnologías de manipulación digital.
-Cuidado con los sitios web falsos: si hay dudas sobre un sitio web o una aplicación, no se deben escribir datos ni realizar pagos.
-Utilizar soluciones que protejan los equipos.
Últimas Noticias
Surge un malware avanzado en Android que afecta a aplicaciones financieras y servicios bancarios
La nueva amenaza, llamada Albiriox, permite a los atacantes controlar teléfonos Android y ejecutar fraudes bancarios sin requerir contraseñas del usuario

¿El uso de griefbots puede ayudar a las personas que atraviesan procesos de duelo?
Una investigación identificó casos en que reportaron beneficios emocionales al interactuar con herramientas impulsadas por IA. Aunque especialistas advirtieron en Scientific American sobre riesgos psicológicos y la necesidad de supervisión profesional

Starlink advierte a sus clientes sobre los riesgos de cambiar de plan: esto debes considerar antes de hacerlo
Starlink aplica cambios inmediatos solo en los planes de mayor costo, mientras que las tarifas inferiores entran en vigor al finalizar el ciclo de facturación

Sorteo del Mundial 2026: a qué hora, dónde verlo y más preguntas trend en Google
Bombos, formatos y más búsquedas se están haciendo en todo el mundo en Google Chrome
Ethereum: cuál es el precio de esta criptomoneda este 5 de diciembre
Ethereum fue lanzada en 2015 por el programador Vitalik Buterin, con la intención de impulsar un instrumento para aplicaciones descentralizadas y colaborativas



