深度偽造Deepfakes正在打開網路安全的「潘多拉魔盒」

2017年,當名為「Deepfakes」的使用者在網際網路上首次發佈合成視訊時,也許不曾想到他已經打開了「潘多拉魔盒」。隨著DeepFake技術在缺少監管的狀態下野蠻生長至今,已逐漸成為危害經濟和社會穩定的存在。無數事實都在時刻提醒我們:眼見未必為實!不能再理所當然地相信網際網路上的圖像和視訊。

Deepfakes技術發展大事記

2014:Deepfakes技術誕生

2014年,「GAN之父」Ian Goodfellow與同事發表了首篇介紹生成對抗網路(GAN)的科學論文,它就是我們今天深入討論的deepfakes的技術基礎。

2015年:GAN越發完善

研究人員開始將GAN與經過圖像識別最佳化的多層卷積神經網路(CNN)相結合。CNN能夠並行處理大量資料,而且在顯示卡上的運行效率特別高。這一組合取代了以往較為簡單的GAN代理驅動網路,也讓生成結果的可信度邁上新的臺階。

2017年:第一段Deepfakes視訊誕生

生成器代理通常會生成低解析度的圖像,因為越清晰越容易被檢測出問題,只有這樣,檢查代理才難以檢測內容的真偽。Nvidia通過分階段訓練網路:先由偽造AI學習創建低解析度圖像,然後,將解析度逐漸提升,以此推動Deepfakes仿真能力實現了質的飛躍。自此,Deepfakes一詞就成了AI生成圖像和視訊的代名詞。

2018年:Deepfakes登陸YouTube頻道

此後,Nvidia研究人員進一步提升GAN控制能力,他們可以針對單一圖像特徵(例如人像中的「黑髮」和「微笑」)做出調整。通過這種方式,可以將訓練圖像的特徵有針對性地轉移到AI生成圖像上。與此同時,首個專門研究Deepfakes的YouTube頻道正式上線,包括了各種類型的視訊。

【網路轉移可用於控制圖像AI,例如僅創建微笑著的人像】

2019年:Deepfakes成為主流

拋開技術進步不談,2019年是deepfakes正式成為主流的一年。網路上Deepfakes數量快速增加,Deepfakes的技術發展速度超出了預期,技術專家Hao Li甚至大膽預測,Deepfakes將在很快走向完美。

2020年:對Deepfakes提出監管

Facebook在2020年美國大選開始時宣佈,將在自家平臺上全面禁止deepfakes——諷刺或戲仿性質的Deepfakes除外;YouTube也採取了類似的指導方針;Twitter則開始執行其2019年推出的管理Deepfakes準則;當年8月,TikTok也開始禁止其視訊平臺違規使用Deepfakes技術。

在這一年,Jigsaw公司正式發佈了一款由AI驅動的檢測工具Assembler,可幫助管理者檢測出Deepfakes圖像。高通則投資了一家初創公司,該公司能夠以不可撤銷的方式將原始照片及視訊標記為「原創」,從而降低後續的Deepfakes識別難度。

目前階段

Deepfakes技術本身仍在繼續發展,微軟已經正式推出了FaceShifter,能夠將模糊的原始圖像處理為可信的偽造畫面。娛樂巨頭迪士尼也開始在電影製作中廣泛應用Deepfakes技術,並推出了百萬像素級Deepfakes視訊製作工具。這一切,都為Deepfakes可能被利用的犯罪活動創造了條件。

今年6月,FBI發佈公告,提醒公眾警惕在遠端求職面試中使用Deepfakes技術假扮成他人的情況。這些職位大多與資訊技術、系統開發、資料庫以及軟體管理相關。如果這些詐騙者成功過關,將有權訪問目標企業的敏感資料,包括客戶 PII(個人身份資訊)、財務資料、公司IT資料庫和/或專有資訊。

Deepfakes威脅日益增加

經過多年的發展,現在的Deepfakes技術已經從「一眼假」變成真偽莫辨的「實時換臉」,而且門檻極低,只需要通過一款軟體,幾張圖片,即可一鍵生成。而一系列的網路安全事件也充分表明,Deepfakes引發的信任安全危機可能才剛剛開始。

根據VMware最新發布的《年度全球事件響應威脅報告》顯示,去年,使用面部和語音替換技術進行網路攻擊的數量增長了13%。其中,電子郵件是Deepfakes攻擊的主要傳遞載體,佔整體攻擊數量的78%,這與商業電子郵件入侵(BEC)嘗試的持續增加有關。

此外,在接受研究人員調查的網路安全專業人士中,有66%的受訪人表示他們在過去一年中發現了至少一起此類事件。事實再次證明,Deepfakes技術用於網路攻擊已經從理論威脅演變成了現實危害。

早在2019年,美國國土安全部就對Deepfakes技術的應用安全性提出了質疑,稱「使用該技術騷擾或傷害他人利益的現象應當引起公眾重視」。然而,用於分辨Deepfakes偽造視訊的技術目前還尚未成熟。

根據威脅情報公司Sensity發佈的一份最新研究報告顯示,Deepfakes檢測演算法和軟體有86%的幾率會將經Deepfakes偽造處理過的視訊認定為「真」。而2022年3月卡內基梅隆大學的研究指出,對比市面上各種Deepfakes技術檢測產品的演算法和硬體基礎發現,其準確度在30%-90%之間浮動。

更重要的是,隨著Deepfakes技術的快速發展,也許未來再精密的Deepfakes檢測演算法也無法準確地識別真偽。這意味著Deepfakes技術將最終改變遊戲規則——無論是社交還是娛樂方面。Deepfakes專家Hao Li認為,這種發展趨勢是完全有可能的,因為圖像的實質不過是輔以適當顏色的像素,AI找到完美的副本只是時間問題。

此外,短視訊的盛行,以及Reface或Impressions等應用的普及,使得偽造圖像和視訊正變得司空見慣。過去,人們堅信「耳聽為虛,眼見為實」,而現在,可能正如GAN之父Ian Goodfellow所言,「AI也許正在關閉我們這一代觀察世界的大門。」

積極防禦Deepfakes應用風險

雖然Deepfakes技術在應用時產生的威脅看起來很嚴重,不過,我們也並非完全無計可施。FBI在之前的公告中就指出,雖然一些Deepfakes視訊處理的極為逼真,但並未達到完美無瑕的程度。通過一些不正常的眨眼、不正常的光線、不協調的聲音,以及咳嗽、打噴嚏等動作細節,都可識別出視訊的真假。在時長超過10s的視訊畫面中,發現這些破綻並不難。

同時,企業組織還可以採取多種措施來抵禦它們,包括培訓和教育、先進技術以及威脅情報等,從而在一定程度上抑制惡意的Deepfakes活動:

  • 首先,教育和培訓員工有關Deepfakes社交工程攻擊(尤其是那些最有針對性的攻擊)的知識是降低風險的一個重要因素,而且必須將重點放在財務部門相關員工身上,並且經常性提醒他們注意這種可能性;

  • 其次,在技術方面,建議企業組織部署更多的分析系統,以及時發現異常偽造行為等。Deepfakes欺詐活動一般需要時間來設置和執行,這讓潛在受害者有足夠的時間來發現警告信號並採取行動;

  • 除此之外,企業還可以通過隨機分配使用者指令來實現有效防禦。因為Deepfakes創作者無法預測數以千計的可能請求。雖然犯罪分子可以實時操縱Deepfakes,但視訊質量會顯著下降,因為Deepfakes技術所需的強大處理能力使其無法快速做出反應。在此情況下,反覆響應錯誤的使用者可以被標記,並進行進一步調查。

文章來源:安全牛編譯整理

相關文章

「C# 不停止膨脹,必將走向滅亡」

「C# 不停止膨脹,必將走向滅亡」

【CSDN 編者按】程式語言更新的頻率是越快越好,還是越慢越好,不斷增加的功能是否真的就是開發者想要的? 原文連結:https://medi...