應用

技術

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

Facebook研究新算法:遏制deepfake換臉行為并追蹤其來源

2021-06-17 17:11 cnBeta.COM

導讀:雖然目前 Deepfakes 換臉偽造情況在 Facebook 上并不是很突出

雖然目前 Deepfakes 換臉偽造情況在 Facebook 上并不是很突出,但這家社交網(wǎng)絡巨頭正加大對該技術的研究力度,以防范潛在的未來威脅。通過和密歇根州立大學(MSU)多位學者的合作,F(xiàn)acebook 創(chuàng)造了一種逆向設計深度假象的方法:分析人工智能生成的圖像,以揭示創(chuàng)造它的機器學習模型的識別特征。

圖片來自于 The Verge

這項工作非常有用,因為它可以幫助 Facebook 追蹤在其各種社交網(wǎng)絡上傳播 Deepfakes 的不良分子。這些內(nèi)容可能包括錯誤的信息,但也包括未經(jīng)同意的色情內(nèi)容--這是 Deepfakes 技術的一個令人沮喪的常見應用。現(xiàn)在,這項工作仍處于研究階段,還不準備部署。

目前在該領域的研究已經(jīng)能夠確認哪些是人工合成的臉,哪些是真實的臉。不過由密歇根州立大學 Vishal Asnani 領導的團隊進一步推進了這項研究,確定了未知模型的架構特征。這些特征被稱為超參數(shù)(hyperparameters),在每個機器學習模型中都要像發(fā)動機的零件一樣進行調(diào)整??傮w而言,它們在完成的圖像上留下了獨特的指紋,然后可以用來識別其來源。

Facebook 研究負責人塔爾·哈斯納(Tal Hassner)告訴 The Verge,識別未知模型的特征非常重要,因為 Deepfakes 軟件非常容易定制。如果調(diào)查人員試圖追蹤他們的活動,這有可能讓不良行為者掩蓋他們的蹤跡。

Hassner 表示:“讓我們假設一個不良行為者正在生成許多不同的 Deepfakes,并在不同的平臺上向不同的用戶上傳。如果這是一個以前沒有人見過的新的人工智能模型,那么我們過去就無法進行判斷了?,F(xiàn)在,我們能夠說‘看,這里上傳的圖片,那里上傳的圖片,都來自同一個模型’。如果我們能夠查獲[用于生成內(nèi)容的]筆記本電腦或計算機,我們將能夠說‘這就是罪魁禍首’”。

哈斯納將這項工作與法醫(yī)技術相提并論,即通過尋找所產(chǎn)生的圖像中的模式來確定哪種型號的相機被用來拍攝照片。他說:“不過,不是每個人都能創(chuàng)造自己的相機。而任何有合理經(jīng)驗和標準計算機的人都可以炮制出他們自己的模型,生成 Deepfakes”。