Deepfakes: كيفية اكتشاف الصوتيات ومقاطع الفيديو التي تم التلاعب بها؟

من الصعب على معظم المستخدمين ألا يصدقوا بشكل حدسي ما يرونه أو يستمعون إليه. ومع ذلك، نظرًا لأنه من الممكن التعامل مع الصور ومقاطع الفيديو والتسجيلات الصوتية بجهد وخبرة قليلة نسبيًا، فمن المستحسن أن تكون منتبهًا.

Guardar
ARCHIVO - Si un vídeo
ARCHIVO - Si un vídeo resulta extraño en algún sentido, vale la pena indagar sobre su autenticidad. Foto: Christin Klose/dpa

من الصعب على معظم المستخدمين ألا يصدقوا بشكل حدسي ما يرونه أو يستمعون إليه. ومع ذلك، نظرًا لأنه من الممكن التعامل مع الصور ومقاطع الفيديو والتسجيلات الصوتية بجهد وخبرة قليلة نسبيًا، فمن المستحسن أن تكون منتبهًا.

يتم إنشاء ما يسمى بـ «deepfakes» بمساعدة الذكاء الاصطناعي (AI)، وعند عرضها أو الاستماع إليها بشكل طبيعي، لا يمكن تمييزها عن مقاطع الفيديو الحقيقية أو التسجيلات الصوتية، يحذر المكتب الفيدرالي الألماني للأمن في تكنولوجيا المعلومات (BSI)، الذي يقدم صفحة مواضيعية جديدة على وهو ما يفسر التكنولوجيا والإجراءات والمخاطر وكيفية حماية نفسك.

تسمى المنتجات المزيفة «deepfakes»، لأن الأساليب المستخدمة لإنشائها تستند إلى شبكات عصبية عميقة.

كيف تحمي نفسك من هذه الملفات التي تم التلاعب بها؟ إن مجرد معرفة وجودها وإمكانيات الذكاء الاصطناعي يقودنا إلى التوقف عن الثقة العمياء في صحة أي فيديو أو تسجيل صوتي نفسه. من المهم دائمًا التشكيك بشكل نقدي في بعض الادعاءات ومعقوليتها.

قد تكون هناك أيضًا أدلة تقنية لفضح المنتجات المزيفة. وفقًا لـ BSI، قد تكون هذه القطع الأثرية في انتقالات الوجه، أو الخطوط العريضة غير الواضحة، أو نقص تعابير الوجه أو التعرض غير المتسق في مقاطع الفيديو. الصوت المعدني أو الرتيب، أو النطق غير الصحيح أو طريقة مصطنعة للتحدث، بالإضافة إلى الضوضاء أو التأخير غير الطبيعي، هي أخطاء نموذجية لتزوير الصوت.

وفقًا لـ BSE، يمكن أن تكون هناك أيضًا إجراءات تشفير في المستقبل تربط بوضوح مصدر الفيديو أو المواد الصوتية بهوية وبالتالي تسمح بتجنب التزوير. وتشمل هذه أيضًا العديد من الطرق للكشف التلقائي عن البيانات التي تم التلاعب بها والتي هي حاليًا موضوع دراسات من قبل مجتمع العلماء، كما يقول خبراء الكيان.

dpa