當(dāng)AI學(xué)會說謊
我們該如何守護真實的信息邊界?
AI造謠、AI詐騙:別讓技術(shù)淪為犯罪幫兇
網(wǎng)絡(luò)安全與日常生活緊密相連
從智能助手
精準(zhǔn)醫(yī)療到自動駕駛
AI的進步讓社會運轉(zhuǎn)更高效
生活更便捷
但技術(shù)往往利弊共生
AI 快速發(fā)展也暗藏風(fēng)險
AI 造謠AI 詐騙
正成為亟待應(yīng)對的嚴(yán)峻挑戰(zhàn)
我們在擁抱 AI 便利的同時
必須高度警惕這些潛在危害
01
AI造謠
今年3月初,一則關(guān)于“華山醫(yī)院前院長”因病客死他鄉(xiāng)的消息在互聯(lián)網(wǎng)廣泛傳播,也引起眾多網(wǎng)友關(guān)注。然而經(jīng)上海警方核查卻發(fā)現(xiàn),華山醫(yī)院壓根就沒有名為“張明遠”的前院長,也沒有同名員工。經(jīng)上海公安網(wǎng)安部門迅速調(diào)查,最終成功偵破這起利用AI造謠案,將犯罪嫌疑人王某某、郭某某、石某某抓獲歸案。而令人吃驚的是,犯罪嫌疑人在發(fā)布該假消息前,甚至都不知道有華山醫(yī)院這家醫(yī)院,更不知道所謂的“張明遠”這個人。
經(jīng)查實,王某某、郭某某、石某某等3人,通過控制500余個自媒體賬號,設(shè)置社會熱點、明星緋聞、爆款推薦等關(guān)鍵詞策略,利用AI工具自動生成并發(fā)布不實帖文30余萬條,造成惡劣社會影響。
近年來,隨著AI技術(shù)的快速發(fā)展,尤其是自然語言處理和深度偽造技術(shù)的成熟,AI造謠呈現(xiàn)出更隱蔽、難辨別的特點,利用ai工具合成技術(shù)編造謠言,甚至生成逼近真實的圖片、音視頻,顛覆了“有圖就有真相”的常規(guī)認(rèn)知,讓人難辨真假。
AI造謠的主要形式
01
生成逼真的假新聞、偽造的社交媒體帖子或惡意評論。
02
通過Deepfake技術(shù)合成名人、政客的虛假影像或語音。
03
結(jié)合社交機器人和AI,在社交媒體上大規(guī)模擴散謠言,制造虛假輿論。
辨別AI造謠
偽造熱點事件、捏造名人言論、炮制偽科普、嫁接虛假證據(jù),都在引你“入坑”……當(dāng)造謠已經(jīng)用上AI工具,教你怎么來辨別!
保持懷疑態(tài)度
對于任何看起來過于完美或者與常識相悖的信息,都應(yīng)該持有一份謹(jǐn)慎的態(tài)度。不要輕易相信未經(jīng)核實的消息來源。
查證信息真?zhèn)?/strong>
當(dāng)遇到疑似使用AI技術(shù)修改過的內(nèi)容時,可以通過搜索引擎查找原始資料進行對比驗證。同時也可以利用一些專門用來檢測圖像編輯痕跡的工具來輔助判斷。
增強個人隱私保護意識
防止個人信息泄露也是抵御AI謠言的重要一環(huán)。因為很多時候,詐騙者正是利用了受害者的私人數(shù)據(jù)來進行精準(zhǔn)攻擊。定期更換強密碼、謹(jǐn)慎分享位置信息等措施都有助于降低被惡意利用的風(fēng)險。
關(guān)注官方渠道
權(quán)威機構(gòu)發(fā)布的信息通常更為可靠。因此,在接收到不確定的消息后,優(yōu)先參考政府機關(guān)、知名媒體等正規(guī)途徑發(fā)布的聲明或報道。
積極參與網(wǎng)絡(luò)環(huán)境凈化
如果您發(fā)現(xiàn)自己成為了某條虛假消息的傳播者,請立即停止轉(zhuǎn)發(fā)并向相關(guān)平臺舉報該內(nèi)容。每個人的小小努力匯聚起來就能形成強大的正能量,共同維護健康的網(wǎng)絡(luò)空間。
02
AI詐騙
2024年8月,市民劉先生報案稱其在2個月前通過一則短視頻結(jié)交了網(wǎng)友“焦女士”,接觸后感覺十分投緣。不久,“焦女士”稱在外出游玩時為他請了一串手串,劉先生深受感動,兩人迅速發(fā)展為戀人關(guān)系。隨后,“焦女士”又稱剛盤下一家服裝店,希望劉先生能為她預(yù)訂花籃支持開業(yè),劉先生未多想就轉(zhuǎn)賬給了對方推薦的“花店老板”。接下來的一個月內(nèi),“焦女士”故伎重施,以家屬生病、進貨需要資金等理由,陸續(xù)向劉先生索要了近20萬元。接報后,上海警方抽絲剝繭,逐步明確了一個以楊某為首的交友詐騙團伙。隨著調(diào)查深入,民警發(fā)現(xiàn)該團伙組織嚴(yán)密且有明確分工,如在短視頻平臺上架視頻的引流人員,與潛在被害人聊天的業(yè)務(wù)員,以及偽造相關(guān)聊天內(nèi)容的“修圖”人員,采取“流水化”詐騙作業(yè)。
“AI詐騙” 成功率極高,因為騙子利用的是人類最原始的情感:對親友的信任和對權(quán)威的畏懼。傳統(tǒng)電信詐騙靠“話術(shù)”,而AI詐騙靠的是“技術(shù)”。它不再僅僅是“猜猜我是誰”,而是讓你親眼看到、親耳聽到“你認(rèn)識的人”,欺騙性呈指數(shù)級上升。
AI詐騙常見套路
1
聲音合成
騙子通過騷擾電話錄音等來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。
2
AI換臉
騙子首先分析公眾發(fā)布在網(wǎng)上的各類信息,根據(jù)所要實施的騙術(shù),通過AI技術(shù)篩選目標(biāo)人群。在視頻通話中利用AI換臉,騙取信任,從而實施詐騙。
3
轉(zhuǎn)發(fā)語音
騙子在盜取社交賬號后,便向其好友“借錢”,為取得對方的信任,他們會轉(zhuǎn)發(fā)之前的語音,進而騙取錢款。
4
AI程序篩選受害人
騙子利用AI來分析公眾發(fā)布在網(wǎng)上的各類信息,根據(jù)所要實施的騙術(shù)對人群進行篩選,在短時間內(nèi)便可生產(chǎn)出定制化的詐騙腳本,從而實施精準(zhǔn)詐騙。
AI技術(shù)能讓違法犯罪分子輕松“換臉變聲”,請注意“眼見”未必為實,教你如何辨別AI詐騙。
動作驗證法
當(dāng)視頻中對方(尤其是涉及轉(zhuǎn)賬、借錢等敏感要求時)顯得有點“怪”,別急著答應(yīng)。請對方做一個連貫的轉(zhuǎn)頭動作,或者用手掌完全遮住臉再快速移開。目前的AI技術(shù)在模擬這些復(fù)雜的面部遮擋和光影變化時,容易出現(xiàn)卡頓、模糊或扭曲。
聲音細節(jié)辨真?zhèn)?/strong>
注意聽語音細節(jié)。AI生成的語音有時會缺乏自然的呼吸停頓、情感起伏,或者帶有輕微的機械感、背景雜音異常。如果對方聲音聽起來“不像平?!?,務(wù)必提高警惕。
多渠道核實身份
這是最核心的一招!無論視頻、語音多么逼真,涉及金錢交易或敏感信息時,務(wù)必通過其它可靠途徑二次確認(rèn)。比如,掛斷后直接撥打?qū)Ψ匠S们夷闶煜さ碾娫捥柎a(不要回撥可疑來電號碼),或者通過你們共同認(rèn)識的第三人進行側(cè)面核實。
核心口訣
“視頻語音莫輕信,動作驗證多核實!”——對可疑的視聽信息保持警惕,堅持多渠道核實身份。
網(wǎng)警提醒
面對紛繁復(fù)雜的網(wǎng)絡(luò)信息
須持續(xù)提升辨別意識
涉及金錢往來的各類交易
應(yīng)始終保持高度警惕
不向陌生賬戶轉(zhuǎn)賬
不被 “高收益”“急用錢” 等說辭迷惑
守好信息安全與財產(chǎn)安全
共同防范網(wǎng)絡(luò)風(fēng)險
營造一個真實可信的信息環(huán)境
趕緊關(guān)注我們的官方賬號吧~
清朗網(wǎng)絡(luò)空間,我們共同守護!
掃碼進入舉報不良信息頁面
來源丨公安部網(wǎng)安局 上海網(wǎng)警
編輯|李洋
柳州市互聯(lián)網(wǎng)信息辦公室出品
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.