近日,在加拿大蒙特利爾舉行的國(guó)際人工智能聯(lián)合會(huì)議(IJCAI)期間,螞蟻數(shù)科與新加坡科技研究局聯(lián)合主辦“深度偽造檢測(cè)、定位、可解釋性”研討會(huì)。會(huì)上,螞蟻數(shù)科與斯坦福大學(xué)分別開源兩大深度偽造數(shù)據(jù)集,涵蓋人類面部及動(dòng)作偽造、聲音克隆等多種模態(tài),為行業(yè)提供了關(guān)鍵的基礎(chǔ)數(shù)據(jù)資源,推動(dòng)AI安全技術(shù)發(fā)展。
該研討會(huì)聚焦Deepfake(深度偽造)識(shí)別方向,來自中國(guó)、美國(guó)、澳大利亞、巴西、新加坡等多國(guó)知名機(jī)構(gòu)學(xué)者與行業(yè)專家分享前沿技術(shù)和應(yīng)用成果。
螞蟻數(shù)科將用于IJCAI“深度偽造檢測(cè)挑戰(zhàn)賽”的180萬訓(xùn)練數(shù)據(jù)集(DDL-Datasets),正式向全球研究者開源。該數(shù)據(jù)集包含人臉偽造、視頻篡改、聲音克隆三大高危場(chǎng)景,涵蓋80余種偽造手法,清晰標(biāo)注了AI造假的畫面位置、時(shí)間節(jié)點(diǎn),有助于提升算法可解釋性。研究者可在Modelscope(磨搭社區(qū))下載獲取。
圖:螞蟻數(shù)科國(guó)際算法負(fù)責(zé)人李建樹分享深度偽造定位數(shù)據(jù)集
由斯坦福大學(xué)、谷歌與加州大學(xué)伯克利分校聯(lián)合開源的視頻數(shù)據(jù)集 DeepAction,包含7款大模型生成的2,600段人類動(dòng)作視頻以及相匹配的真實(shí)鏡頭,這些視頻展示了行走、奔跑、烹飪等日常行為,研究者可在Hugging Face(抱抱臉社區(qū))下載獲取。此外,研究團(tuán)隊(duì)發(fā)表的論文《AI生成人體動(dòng)作檢測(cè)》(Human Action CLIPs: Detecting AI-Generated Human Motion)獲得該主題workshop最佳論文。該論文提出了一種基于多模態(tài)語義嵌入的鑒別技術(shù),可精準(zhǔn)區(qū)分真實(shí)人體動(dòng)作與AI生成動(dòng)作。該方法具有較強(qiáng)的魯棒性,可有效抵御數(shù)據(jù)篡改手段(如調(diào)整分辨率、壓縮視頻等)對(duì)檢測(cè)算法的干擾。
圖:新加坡科技研究局周天異教授為斯坦福大學(xué)Matyas Bohacek頒發(fā)
澳大利亞莫納什大學(xué)Abhinav Dhall教授分享了其研究團(tuán)隊(duì)通過腦電圖數(shù)據(jù)發(fā)現(xiàn):不同文化背景人群對(duì)AI造假視頻存在感知差異,當(dāng)視頻語言為參與者熟悉的英語且演員來自相似種族背景時(shí),其區(qū)分真實(shí)視頻與深度偽造視頻的表現(xiàn)更佳。該研究為全球化多元背景下的深度偽造分析領(lǐng)域鋪就了未來探索路徑。
公開信息顯示,螞蟻數(shù)科長(zhǎng)期關(guān)注并持續(xù)投入AI安全及風(fēng)險(xiǎn)防范,旗下安全科技品牌ZOLOZ自2017年起服務(wù)海外機(jī)構(gòu)的數(shù)智化升級(jí),目前已覆蓋超25個(gè)國(guó)家和地區(qū),“實(shí)人認(rèn)證”產(chǎn)品準(zhǔn)確率達(dá)99.9%。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.