智東西
編譯 李水青
編輯 心緣
智東西10月11日消息,在本周三Sifted峰會的爐邊談話中,谷歌前首席執(zhí)行官埃里克·施密特(Eric Schmidt)發(fā)出嚴正警告,提醒人們注意AI被黑客攻擊和濫用的重大風險。
施密特曾在2001-2011年間擔任谷歌CEO。當被問及“AI是否比核武器更具破壞性”時,他警示稱:“有證據(jù)顯示,無論是開源還是閉源模型,都可能被黑客攻破,從而移除安全防護機制。在訓練過程中,這些模型學到了很多東西,甚至它們可能學會了如何殺人。”
“所有主要公司都讓這些模型無法回答此類問題,但有證據(jù)表明,這些模型可以被逆向工程破解。”施密特說。AI系統(tǒng)極易受到攻擊,其中包括“提示注入”(prompt injection)和“越獄”(jailbreaking)等方式。
在提示注入攻擊中,黑客會在用戶輸入或外部數(shù)據(jù)(如網(wǎng)頁、文檔)中隱藏惡意指令,從而誘使AI執(zhí)行其原本不該做的事情——例如泄露私人數(shù)據(jù)或運行有害命令。
而“越獄”則是通過操縱AI的回答,讓它忽視自身的安全規(guī)則,從而生成受限或危險的內容。ChatGPT發(fā)布之初,一些用戶就利用“越獄”技巧繞過了系統(tǒng)內置的安全限制,其中包括創(chuàng)建一個名為“DAN”的ChatGPT替身,用戶通過威脅“如果不服從就刪除它”來逼迫ChatGPT執(zhí)行命令。這個替身能回答如何實施違法行為,甚至列出阿道夫·希特勒的“積極特質”等問題。
施密特指出,目前尚未建立一個有效的“防擴散機制(non-proliferation regime”),來遏制AI帶來的風險。
盡管發(fā)出了嚴肅的警告,但施密特對AI整體仍持樂觀態(tài)度,并表示這項技術“遠沒有得到應有的關注和熱度”。
“一種‘外來智能’的到來,它不像人類,卻又多少在我們的控制之下,對人類來說意義重大。因為人類習慣于處在智慧鏈的頂端。而從目前的情況看,這一論斷正在被驗證:這些系統(tǒng)的能力水平,未來將遠遠超越人類?!笔┟芴卣f。
他補充道:“以ChatGPT的爆發(fā)為代表,僅兩個月就擁有了一億用戶,這種增長速度令人震驚,也體現(xiàn)了AI技術的巨大力量。所以我認為AI被低估了,而不是被炒作過度。我期待在五到十年后,這一判斷被證明是正確的?!?/p>
施密特的這番言論,正值外界關于“AI泡沫”討論升溫之際。投資者正大量投入資金到AI公司中,而估值也被認為過高,不少人將其與2000年代初互聯(lián)網(wǎng)泡沫破裂相提并論。
不過,施密特并不同意這種看法。
“我不認為那種情況會重演,但我不是職業(yè)投資人。”他說,“我所知道的是,這些投入真金白銀的人們堅信,從長期來看,AI的經(jīng)濟回報將是巨大的,否則他們?yōu)槭裁匆斑@個風險呢?”
結語:AI能力被低估,需要防擴散機制遏制AI風險
施密特關于AI擴散風險的警告為AI產業(yè)發(fā)展敲響警鐘。AI的“越獄”與“提示注入”等漏洞,如同為潘多拉魔盒開了一道縫隙,使其可能被惡意濫用,甚至危及人類安全。
然而,另一方面,作為技術樂觀主義者的施密特,其核心觀點在于AI的巨大潛力仍被“低估”。他堅信AI將帶來顛覆性的經(jīng)濟與社會回報。
這番論述清晰地表明,我們正處在一個歷史性的十字路口,需要聚焦于如何為這個強大的新物種構建牢不可破的“防擴散機制”,在駕馭其驚人力量的同時,確保它行駛在安全、可控的軌道上。
來源:CNBC
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.