來(lái)源:參考消息
編譯:葛雪蕾
據(jù)彭博新聞社網(wǎng)站8月9日?qǐng)?bào)道,人工智能(AI)和相關(guān)技術(shù)構(gòu)成的一個(gè)比較微妙且隱蔽的威脅是它篡改記憶的能力。
圖片來(lái)源:pixabay
心理學(xué)家伊麗莎白·洛夫特斯花了50年的時(shí)間來(lái)表明,人類多么容易被操縱去記住從未發(fā)生的事情,尤其是在檢方和警察詢問(wèn)證人的時(shí)候。
洛夫特斯現(xiàn)在是加利福尼亞大學(xué)歐文分校教授。她與麻省理工學(xué)院的研究人員合作,探索AI如何操縱我們認(rèn)為記得的內(nèi)容。即便受試者知道他們正在看的是AI生成的文本和圖像,也會(huì)發(fā)生這種操縱。
研究結(jié)果表明,AI可以增強(qiáng)人類植入錯(cuò)誤記憶的能力。
在20世紀(jì)70年代開(kāi)始的一系列著名實(shí)驗(yàn)中,洛夫特斯表明,在適當(dāng)?shù)陌凳鞠拢睦韺W(xué)家可以植入人們小時(shí)候在購(gòu)物中心走失的記憶,或者他們?cè)谝安蜁r(shí)被雞蛋或草莓冰淇淋弄惡心的記憶。后一種情況其實(shí)使得人們不再想吃這些食物。盡管證據(jù)確鑿,我們?nèi)詿o(wú)法擺脫記憶就像記錄事件的磁帶的想法,而對(duì)自身頭腦的誤解使得我們?nèi)菀资軅Α?/p>
洛夫特斯解釋說(shuō):“信奉這種磁帶錄音機(jī)記憶模型的人似乎沒(méi)有意識(shí)到,記憶是個(gè)建設(shè)性的過(guò)程?!彼忉屨f(shuō),我們的大腦會(huì)用在不同時(shí)間獲得的零碎信息構(gòu)建記憶。我們本能地將遺忘理解為丟失或消退的記憶,而不是添加錯(cuò)誤細(xì)節(jié)。
麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究人員帕特·巴達(dá)拉努達(dá)蓬指出,記憶操縱與用深度偽造來(lái)欺騙人們是截然不同的過(guò)程。你不需要精心制作一個(gè)假《紐約時(shí)報(bào)》網(wǎng)站,你只需讓人們相信他們過(guò)去在那里看過(guò)一些東西。他說(shuō):“大家通常不會(huì)質(zhì)疑自己的記憶。”
巴達(dá)拉努達(dá)蓬是關(guān)于三項(xiàng)記憶實(shí)驗(yàn)的論文主要作者,其中第一項(xiàng)展示了聊天機(jī)器人審訊者如何通過(guò)把暗示嵌入問(wèn)題來(lái)改變證人的證詞。
在這項(xiàng)研究中,參與者觀看了一段持械搶劫的視頻片段。然后,有些人被問(wèn)了誤導(dǎo)性問(wèn)題,比如:“劫匪停車的地方附近有監(jiān)控?cái)z像頭嗎?”大約三分之一的參與者后來(lái)回憶說(shuō)看到劫匪是開(kāi)車來(lái)的。實(shí)際上并沒(méi)有車。錯(cuò)誤記憶甚至在一周后仍然存在。
受試者被分為三組:一組沒(méi)有拿到誤導(dǎo)性問(wèn)題,另一組拿到了書(shū)面問(wèn)題,第三組接受了AI聊天機(jī)器人的提問(wèn)。聊天機(jī)器人組形成的錯(cuò)誤記憶是書(shū)面誤導(dǎo)信息組的1.7倍。
另一項(xiàng)研究表明,具有欺騙性的AI概述或聊天機(jī)器人很容易在人們閱讀的故事中插入錯(cuò)誤記憶。巴達(dá)拉努達(dá)蓬說(shuō),甚至更令人擔(dān)憂的是,拿到誤導(dǎo)性AI概述或聊天記錄的參與者從閱讀中保留的真實(shí)信息較少,而且對(duì)他們回憶起的真實(shí)信息的信心較弱。
第三項(xiàng)研究展示了AI如何利用圖像和視頻植入錯(cuò)誤記憶。研究人員將200名志愿者分成四組。每組參與者都觀看了一套24張圖片,其中有些是新聞網(wǎng)站上常見(jiàn)的圖片,還有些是個(gè)人照片,比如有人可能會(huì)在社交媒體上發(fā)布的婚紗照。
在幾分鐘后第二次觀看時(shí),每組看到了不同版本的圖片。有一組看的是跟原先相同(未改變)的圖片。第二組看的是AI修改過(guò)的版本。第三組看的是由AI修改后的圖片轉(zhuǎn)換成的AI生成短視頻。最后一組看的是完全由AI生成圖片轉(zhuǎn)換成的AI生成視頻。
就連看到原有圖片的那一組也保留了一些錯(cuò)誤記憶。這并不奇怪,因?yàn)橐貞浧?4張不同的圖片非常困難。但受到任何程度的AI操縱的參與者所報(bào)告的錯(cuò)誤記憶都明顯多得多。記憶失真率最高的是觀看基于AI生成圖片的AI生成視頻的那一組。
年輕人比老年人更容易吸納錯(cuò)誤記憶。教育水平似乎并不影響易感性。值得注意的是,錯(cuò)誤記憶并不依賴于欺騙參與者相信AI生成的內(nèi)容是真實(shí)的。他們從一開(kāi)始就被告知,他們將看到AI生成的內(nèi)容。
上述最新研究應(yīng)該會(huì)引發(fā)更多關(guān)于技術(shù)影響我們對(duì)現(xiàn)實(shí)理解的討論,而影響可能不僅僅是傳播錯(cuò)誤信息。社交媒體算法還能通過(guò)制造有關(guān)人氣和影響力的錯(cuò)誤印象,來(lái)鼓勵(lì)人們接受邊緣思想和陰謀論。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.