Deepfakes:如何检测操纵的音频和视频?

对于大多数用户来说,很难不直观地相信他们所看到或听的内容。但是,由于可以用相对较少的精力和经验来处理照片,视频和音频,因此建议您保持专心。

ARCHIVO - Si un vídeo resulta extraño en algún sentido, vale la pena indagar sobre su autenticidad. Foto: Christin Klose/dpa

对于大多数用户来说,很难不直观地相信他们所看到或听的内容。但是,由于可以用相对较少的精力和经验来处理照片,视频和音频,因此建议您保持专心。

德国联邦信息技术安全办公室(BSI)警告说,所谓的 “deepfakes” 是在人工智能(AI)的帮助下创建的,当正常观看或收听时,它们几乎无法与真实视频或录音区分开来,该办公室在解释了技术、程序、危害以及如何保护自己。

假冒产品被称为 “deepfakes”,因为用于制造它们的方法是基于深度神经网络。

如何保护自己免受这些操纵文件的侵害?仅仅知道它的存在以及人工智能的可能性这一事实就使我们不再盲目地相信任何视频或音频录制本身的真实性。批判性地质疑某些主张及其合理性始终很重要。

也可能有技术证据揭露假冒产品。根据BSI的说法,这些可能是面部过渡中的伪影,轮廓模糊,缺乏面部表情或视频中的曝光不一致。金属或单调的声音,错误的发音或人为的说话方式,以及不自然的噪音或延迟,都是伪造语音的典型错误。

根据疯牛病的说法,将来还可能有加密程序,将视频或音频材料的来源清楚地与身份联系起来,从而避免伪造。该实体的专家说,这些方法还包括许多自动检测操纵数据的方法,这些方法目前是科学家界研究的主题。

dpa

Read more!