
La inteligencia artificial (IA) ha revolucionado diversas industrias, desde la medicina hasta la educación, pero también ha abierto la puerta a un nuevo tipo de delincuencia. Los ciberdelincuentes, al aprovechar las capacidades de la IA, han comenzado a generar contenido falso con fines malintencionados, como el fraude, la difamación, la manipulación política y social, entre otros.
Utilizando herramientas avanzadas, estos delincuentes crean textos, imágenes, vídeos y audios falsos que pueden resultar extremadamente convincentes. Esta tecnología no solo ha facilitado la creación de contenido engañoso, también ha transformado la forma en que los atacantes operan en línea.
Según información suministrada por el Instituto Nacional de Ciberseguridad de España (Incibe), la IA está siendo utilizada para generar fake news o noticias falsas, diseñadas para desinformar y manipular a la opinión pública. Un ejemplo claro de esto son los generadores de texto como ChatGPT, que permiten crear artículos completos con un estilo muy similar al de los periodistas profesionales.

Esta capacidad de producir contenido escrito de alta calidad ha permitido a los ciberdelincuentes difundir desinformación de forma masiva.
Cómo crean imágenes falsas los ciberdelincuentes
Además de los generadores de texto, los ciberdelincuentes también utilizan IA para crear contenido visual y auditivo falsificado. Herramientas como DeepFaceLab permiten la creación de deepfakes, alterando vídeos de manera que son casi indistinguibles de los reales.
Estas herramientas utilizan redes neuronales para mapear y superponer rostros, creando vídeos falsos en los que personas como políticos o celebridades pueden aparecer diciendo o haciendo cosas que nunca ocurrieron.

La capacidad de manipular vídeos de esta manera ha sido aprovechada para difundir propaganda, suplantar identidades y afectar la reputación de figuras públicas.
Cómo puede la IA llegar a clonar una voz
Por otro lado, la clonación de voz es otro de los avances que los ciberdelincuentes explotan. Programas como Lyrebird permiten replicar con alta precisión la voz de cualquier persona. Usando esta tecnología, los atacantes pueden crear audios falsos, en los que una persona parece estar pronunciando palabras o haciendo declaraciones que nunca dijo.
Esto no solo es utilizado para difundir rumores o declaraciones falsas, también se ha utilizado en fraudes económicos. Un caso real reportado por el Incibe describe cómo ciberdelincuentes utilizaron una voz clonada para estafar a una persona, haciendo que creyera que un familiar cercano estaba solicitando dinero en una emergencia. La víctima, al reconocer la voz, accedió a transferir una cantidad considerable de dinero.

Cómo no caer en los engaños creados con IA
Texto: En el caso de artículos o publicaciones escritas, es importante verificar la coherencia y la gramática del contenido. Los textos generados por IA pueden presentar errores sutiles, como repeticiones innecesarias o incoherencias en el estilo, que no son comunes en textos escritos por humanos.
Vídeo: Los deepfakes a menudo presentan anormalidades, como un número excesivo de parpadeos o movimientos faciales poco naturales. También puede haber incongruencias entre el rostro y el cuerpo, o la calidad del sonido puede no coincidir con la imagen, mostrando desfases o tonos extraños.
Audio: En el caso de audios generados por IA, como en el caso de la clonación de voces, se puede detectar variaciones inusuales en el tono o el ritmo del habla. Además, la falta de ruido de fondo o la presencia de sonidos extraños puede ser indicativo de manipulación.
Imágenes: Las imágenes generadas o alteradas por IA a menudo presentan detalles finos defectuosos, como manos con dedos desproporcionados o fondos que no se alinean correctamente. También se puede notar que la iluminación y las sombras no son coherentes en toda la imagen.
Qué herramientas hay para verificar el contenido falso generado por IA
Afortunadamente, existen herramientas específicas que pueden ayudar a los usuarios a detectar contenido falso generado por IA. Según el Instituto Nacional de Ciberseguridad, algunas de las herramientas más efectivas incluyen:
- Detectores de IA para texto: Herramientas como GPTZero y Copyleaks permiten analizar el contenido escrito y determinar si ha sido generado por IA. Estas herramientas son capaces de detectar patrones lingüísticos y estructuras gramaticales que son característicos de los modelos de lenguaje artificial.
- Herramientas de detección de multimedia: Para vídeos y audios falsos, existen plataformas como Deepware, que permiten analizar y detectar deepfakes con alta precisión. Además, VerifAI y Resemble Detect permiten verificar si un contenido ha sido alterado o generado mediante IA.
Últimas Noticias
Battlefield 6 gratis: cómo jugar sin pagar a todos los mapas y modos del 17 al 24 de marzo
La saga de shooters abre todos sus mapas, modos y funciones en PC, PlayStation 5 y Xbox Series X|S, permitiendo a nuevos jugadores y veteranos redescubrir el juego gratuitamente

Tu próxima casa podría ser construida por este robot araña en 24 horas y con material reciclado
Usando impresora 3D, el dispositivo puede trabajar a la par de 100 albañiles

Así puedes viajar en un taxi sin conductor: Uber activa robotaxis en Las Vegas
Acuerdos con Zoox, Nissan y Wayve amplían la estrategia de Uber, que planea pilotos en Tokio y otras ciudades del mundo

Cómo funciona el mercado de criptomonedas y cuál es su valor este 15 de marzo
El bitcoin, una de las principales criptomonedas, tiene un precio de 71.702,22 dólares

YouTube en Argentina: la lista de los 10 videos más reproducidos que son tendencia hoy
YouTube, la plataforma de videos más famosa del mundo, genera alrededor de 15 mil millones de dólares al trimestre y al día son reproducidos alrededor de 5 mil millones de clips



