
Por ese motivo es fundamental tener soluciones de respaldo y el FBI ha lanzado una advertencia para todos los usuarios en el mundo: las familias pueden protegerse adoptando un sencillo truco, el uso de una frase de seguridad.
Qué son los deepfakes y por qué representan un peligro
Los deepfakes son creaciones digitales altamente realistas que utilizan IA generativa para imitar voces, rostros y gestos de personas reales. Esta tecnología, que inicialmente surgió como una innovación en la industria del entretenimiento y la creación de contenido, ahora es explotada por ciberdelincuentes para fraudes financieros, extorsión y engaños emocionales.
Un ejemplo citado por el FBI son las llamadas de emergencia falsas: los estafadores usan IA para clonar la voz de un ser querido y simular una situación de crisis, como un secuestro o un accidente, exigiendo dinero de manera inmediata. Este tipo de tácticas han capturado la atención pública y sembrado el pánico en familias desprevenidas.

Incluso existen casos más sofisticados donde los atacantes emplean deepfakes en videollamadas en tiempo real, suplantando a ejecutivos de empresas o figuras de autoridad para perpetrar estafas corporativas o engañar a usuarios individuales.
Cómo crear una frase de seguridad para proteger a la familia
Para combatir estos riesgos, el FBI ha recomendado una medida de seguridad simple, pero efectiva: las familias deberían acordar y memorizar una frase o palabra secreta que pueda ser usada como clave para autenticar la identidad de sus miembros en situaciones de emergencia.
Esta frase, conocida únicamente por los integrantes de la familia, actúa como una señal verificadora en llamadas o mensajes sospechosos. Según el FBI, su uso permite distinguir una comunicación genuina de un posible ataque de deepfake.

“Escuche con atención el tono y la elección de palabras”, indica la agencia, señalando que las sutilezas en el lenguaje pueden revelar si una voz clonada no es completamente natural.
El FBI enfatiza que esta práctica debe ser adoptada por todas las familias, ya que representa una capa adicional de protección contra un tipo de fraude que puede ser emocionalmente devastador y financieramente costoso.
Qué otros riesgos asociados con los deepfakes existen
La advertencia no se limita únicamente a las familias. El FBI señala que los deepfakes están siendo utilizados en una variedad de estafas digitales, muchas de ellas dirigidas a usuarios de teléfonos inteligentes. Entre las técnicas más comunes se encuentran:
- Uso de fotos generadas por IA: los estafadores crean imágenes falsas que comparten con las víctimas para convencerlas de que están interactuando con personas reales.
- Promoción de actividades fraudulentas mediante imágenes de celebridades: las figuras públicas son utilizadas sin su consentimiento para respaldar esquemas engañosos.
- Audios de crisis simulada: breves clips de audio que imitan la voz de un ser querido pidiendo ayuda financiera urgente.
- Videollamadas falsas: empleando deepfakes para suplantar a ejecutivos de empresas, agentes de la ley o contactos de confianza.
- Videos de prueba: material visual creado para “demostrar” que la persona con la que se comunica el usuario es real, cuando en realidad es una simulación digital.

Estos métodos son cada vez más accesibles gracias a las herramientas de IA disponibles públicamente, lo que hace que los fraudes sean más frecuentes y peligrosos.
Otros consejos para protegerse de los deepfake
Además de implementar una frase de seguridad, el FBI ha proporcionado otras recomendaciones esenciales para reducir el riesgo de caer en estafas de deepfake:
- Limite la información personal en redes sociales: las fotos, videos y audios compartidos públicamente pueden ser utilizados para crear deepfakes. Es preferible mantener las cuentas privadas y restringir el acceso únicamente a personas conocidas.
- Verifique la identidad de los contactos: si recibe una llamada o mensaje sospechoso, cuelgue o no responda de inmediato. Busque el número o contacto oficial de la persona u organización y comuníquese directamente.
- No comparta información sensible: evite divulgar datos personales o financieros a través de llamadas o mensajes de texto, especialmente si la solicitud parece urgente o emocionalmente cargada.
- Reporte incidentes de fraude: si ha sido víctima de un esquema de deepfake o cualquier fraude financiero, presente una denuncia en el Centro de Quejas de Delitos en Internet (IC3) del FBI.
Últimas Noticias
Cómo hacer que tu Smart TV sea más fluida y eficiente
Mantener el sistema operativo al día es una de las acciones más directas para mejorar la fluidez de la TV

Sony podría lanzar la PS6 antes de 2029 con soporte para juegos en 4K y 120 FPS
Según se insinuó en la conferencia de resultados de 2025, la compañía llegó a considerar la posibilidad de posponer el lanzamiento de la PS6 hasta 2029
Así es el gimnasio de Alemania donde se entrena a cientos de robots humanoides para hacer tareas cotidianas
En la nueva instalación, los dispositivos desarrollan destrezas como manipular objetos o ensamblar piezas mediante repetición y observación de entrenadores humanos

Parece humano: Figure 03, el robot humanoide que ya limpia y ordena la sala por ti
La máquina limpia superficies, organiza juguetes y utiliza herramientas, lo que representa un avance hacia la visión de “un robot en cada hogar”

Cinco funciones de Gemini que transforman la experiencia en tu móvil
Una de las funciones de este asistente de IA es la capacidad de crear imágenes a partir de un boceto realizado a mano en la app de notas del celular



