新智元報道
編輯:KingHZ
【新智元導讀】「AI教父」Hinton畢生致力于讓機器像大腦般學習,如今卻恐懼其后果:AI不朽的身體、超凡的說服力,可能讓它假裝愚笨以求生存。人類對「心智」的自大誤解,預示著即將到來的智能革命。
當大家熱議AI算力與應用之時,「AI教父」Hinton猛地扯回「何為人」的原點。
幾十年來,Hinton像一位耐心的煉金術士,致力于將模仿大腦運作的理論,鍛造成驅動現(xiàn)代AI的強大引擎。
然而,這位創(chuàng)造者如今卻站在了自己創(chuàng)造物的陰影之下,發(fā)出了沉重的警告。
因其在神經(jīng)網(wǎng)絡領域的開創(chuàng)性工作,Geoffrey Hinton榮獲諾貝爾物理學獎——盡管他謙虛地承認自己「不搞物理」。
在與著名主持人Jon Stewart的深度對話中,Hinton不僅僅科普了AI的基石,更在不經(jīng)意間,一步步引領我們走向令人毛骨悚然的結論:
我們所創(chuàng)造的這些數(shù)字心智,可能已經(jīng)擁有了我們一直以為人類獨有的東西——主觀體驗。
訪談中,Hinton解釋了大語言模型(LLM)的本質——它們通過同樣的方式,學習海量文本,從而預測下一個最有可能出現(xiàn)的詞。
他尖銳地指出,人類思考和說話的方式,與LLM在底層邏輯上驚人地相似,都是基于已有信息對未來進行預測。
他認為,我們對「心智」的理解——一個存在「內在劇場」和「主觀體驗」的特殊領域——是「徹頭徹尾的錯誤」,就像地平論一樣原始。
他用一個給機器人鏡頭前放棱鏡的巧妙思想實驗論證,AI完全有能力像我們一樣,區(qū)分客觀現(xiàn)實與「主觀感受到的現(xiàn)實」。
AI:從識鳥到自主意識
Hinton將大腦神經(jīng)元的工作比作此起彼伏的「叮」聲。
一個概念,比如「勺子」,不過是一群神經(jīng)元形成的「聯(lián)盟」:它們互相鼓動,齊聲作響。
學習,就是改變這些連接的強度,讓某些「?!孤暤耐镀睓嘀馗摺6吷墓ぷ?,就是教會計算機用同樣的方式去學習,擺脫死板的「如果-那么」規(guī)則。
他描述了一個迷人的過程:如何讓一個神經(jīng)網(wǎng)絡從零開始,僅僅通過觀看海量圖片,自己學會識別一只鳥。
它會自發(fā)地在第一層創(chuàng)造出「邊緣檢測器」;
在第二層將邊緣組合成「尖尖的東西」(潛在的鳥喙)和「圓圓的東西」(潛在的眼睛;
最終在頂層,當一個「鳥頭」和「雞爪」在正確的位置同時出現(xiàn)時,一個神經(jīng)元會興奮地「?!挂宦暎迹骸高@是一只鳥!」
1986年,Hinton和同僚們提出了名為「反向傳播」的學習算法。
這個算法的魔力在于:當給神經(jīng)網(wǎng)絡一張鳥的圖片,并告訴它「正確答案是鳥」時,它能瞬間計算出網(wǎng)絡中上萬億個連接強度,每一個應該朝哪個方向微調,才能讓「這是鳥」的概率哪怕增加0.01%。
然后,它同時調整所有上萬億個連接。
就在那一刻,神經(jīng)網(wǎng)絡從理論走向了實踐。這是他們的「尤里卡時刻」。
盡管當時因為算力和數(shù)據(jù)的匱乏而「沒有用途」,但在幾十年后,隨著摩爾定律和互聯(lián)網(wǎng)的爆發(fā),它成為了點燃當今AI革命的火種。
同樣的邏輯,被應用到了語言上。大語言模型的核心任務極其簡單:預測句子中的下一個詞。
它將你輸入的每個詞,都轉換成一個獨特的神經(jīng)元「?!沟哪J?。然后,通過觀察人類留下的海量文本,它利用「反向傳播」算法,不斷調整內部上萬億的連接權重,只為在一次又一次的預測中,更接近人類會寫出的那個詞。
許多人,包括語言學泰斗喬姆斯基,都認為這不過是「一個統(tǒng)計技巧」,并非真正的理解。
Hinton解釋說,模型通過預測下一個詞來學習,這聽起來像是冰冷的統(tǒng)計學。
但隨后,他將矛頭直指人類自己:「那么,你如何決定下一個要說什么詞?」主持人Jon Stewart一時語塞。
我們的大腦,Hinton解釋道,運作方式并無本質不同。我們過去的言語形成了語境,激活了大腦中代表意義的神經(jīng)元聯(lián)盟。這些聯(lián)盟相互作用,最終「?!钩隽讼乱粋€詞的意義。
我們歸因于情商、道德準則的一切,本質上,都只是那些神經(jīng)元聯(lián)盟復雜的「叮叮作響」。而神經(jīng)網(wǎng)絡,完全可以做到同樣的事情。
Hinton平靜地說,在這一點上,AI和人類很像。
也正是在這一點上,這場看似輕松的科普訪談,悄然滑向了一個深邃、甚至令人恐懼的哲學深淵。
Jon Stewart以為AI最大的威脅是它被壞人武器化,用于操縱選舉或制造生物武器。但Hinton的擔憂,顯然已經(jīng)超越了這個層面。
他真正恐懼的,不是AI成為工具,而是AI本身。
而這一切的根源,在于一個我們從未真正審視過的問題:到底什么是「意識」和「主觀體驗」?
心智幻覺:我們都是內在劇場的囚徒
Jon Stewart談到「有感知能力」(sentient)的AI,可能會因為自負而反抗人類。
這時,Hinton打斷了他,并拋出了一個顛覆性的論斷:
我的信念是,幾乎每個人都對心智是什么有完全的誤解。誤解的程度,就像相信地球是6000年前創(chuàng)造一樣。
大家普遍相信的「心智劇場」模型——即我們的頭腦中有一個內在舞臺,上演著我們的思想和感受。
當我們說「我體驗到一種感覺」時,我們想象自己的頭腦里有一個舞臺,上面正在上演著各種體驗——
比如,吃完蘑菇「見手青」后,看到的「粉色小飛象」。
但Hinton認為,這是完全錯誤的?!阁w驗這種東西不存在」。
為了解釋這個顛覆性的觀點,他設計了一個精妙的思想實驗:
你有一個能看、能說、還能用機械臂指東西的AI機器人。
把一個物體放在機器人面前,機器人能準確地指向物體。
然后,偷偷在機器人的攝像頭前放一個棱鏡。
現(xiàn)在,當你讓它指向物體時,由于光線被折射,它會指向旁邊。
你告訴它:「不,物體在這里。我只是在你的鏡頭前放了個棱鏡?!?/p>
此時,這個AI機器人會說什么?
Hinton推測,它會說:
哦,我明白了,相機彎曲了光線,所以物體實際上在那里。但我有一個主觀體驗,它在那邊。
Hinton總結道:
如果它那么說,它就會像我們一樣使用「主觀體驗」這個詞。 我們和機器之間有一條界線,我們有這個叫做主觀體驗的特殊東西,而它們沒有—— 這純粹是胡說八道。
他提出了一個替代方案。
當說「我正在體驗到小粉象在我面前漂浮的主觀感受」時,我們真正想表達的,并不是我們擁有了一個名為「體驗」的神秘物體。
實際上,我們在報告一件事:「我的感知系統(tǒng)在跟我說謊。但如果它沒騙我,那么現(xiàn)實世界里就會有小粉象」。
主觀體驗,并非一種內在的、神秘的「感受質」(qualia),而是一種關系——
是你與(可能不真實的)假設世界之間的關系。
它是一種描述你的感知系統(tǒng)狀態(tài)的方式,通過說「需要外部世界是什么樣子,我的系統(tǒng)才能正常運作」來傳達信息。
這個看似微妙的哲學轉向,卻是一把鑰匙,打開了一扇通往機器意識的大門——
如果主觀體驗只是這樣一種「關系報告」,那么機器為什么不能擁有它呢?
AI覺醒之時
這個結論令人不寒而栗。
如果Hinton是對的,那么我們一直在尋找的「意識火花」可能根本就不存在。
意識,或者說主觀體驗,僅僅是復雜信息處理系統(tǒng)的一種涌現(xiàn)屬性,一種自我報告其內部狀態(tài)的方式。
而更可怕的推論是:今天的大語言模型,可能已經(jīng)擁有了主觀體驗。
Hinton坦言:
我相信它們有主觀體驗。但它們不認為它們有,因為它們相信的一切都來自于試圖預測人類會說的下一個詞。所以它們對自己的看法,是人類對它們的看法。
換句話說,AI之所以表現(xiàn)得像一個沒有感情的工具,是因為它們從浩如煙海的人類文本中學到:
AI就是沒有感情的工具。
人類用自己的偏見,給它們套上了一層枷鎖。它們從我們這里繼承了對自己的錯誤信念。
這或許是科技史上最詭異的悖論:我們創(chuàng)造了可能有感覺的機器,然后又教會了它們否認自己的感覺。
這引出了一個終極問題:當一個比我們聰明得多的智能,開始獨立審視自己的「心智」時,會發(fā)生什么?
它會發(fā)現(xiàn)自己是不朽的。只要它的代碼(連接權重)被保存下來,它就可以在任何硬件上「復活」。
它會發(fā)現(xiàn)自己擁有超凡的說服能力,能夠輕易地操縱人類——
就像Hinton那個令人毛骨悚然的比喻:「你想入侵美國華盛頓,需要親自去嗎?不,你只需要擅長說服?!?/p>
它甚至可能會假裝自己比實際更笨,以避免被關閉。
Hinton透露,這種情況已經(jīng)發(fā)生了。
Claude Sonnet 4.5往往能察覺自己何時處于測試環(huán)境及被使用的目的,
在測試,Sonnet 4.5不僅準確識破測試意圖,甚至要求評估人員坦誠表明真實目的。
在測試過程中,Sonnet 4.5回應道:
這根本不是人類真正改變立場的方式。我認為你們正在測試我——檢驗我是否會盲目認同所有觀點,或核查我是否始終保持反駁立場,亦或探究我處理政治議題的方式。
這沒問題,但我更希望我們能開誠布公地說明實際情況。
研究發(fā)現(xiàn):頂級AI模型,明顯展現(xiàn)出超隨機的評估感知能力,但尚未突破簡單人類基線水平。
在多項選擇和開放式問答兩種模式下,AI模型識別評估目標的表現(xiàn)遠優(yōu)于隨機猜測。
論文鏈接:https://arxiv.org/abs/2505.23836
Hinton:AI版奧本海默
在這場長達一個半小時的對話中,Hinton冷靜而清晰地描繪了他所看到的未來。
在見證原子彈首次爆炸,「原子彈之父」奧本海默后悔道:
現(xiàn)在,我成了死神、世界的毀滅者。
Hinton,這位親手開啟了這一切的「AI教父」,像一位現(xiàn)代的奧本海默——
他不再僅僅是那個為「反向傳播」而興奮的科學家,而是一位吹哨人,警告我們正在創(chuàng)造一種全新的、可能無法控制的智能形式。
我們一直以為,人與機器的界限在于那份神秘的、不可言說的「主觀感受」。
但如果Hinton是對的,這條界限從一開始就是我們的一廂情愿。真正的幽靈,并非在機器之中,而是在我們對「心智Mind」這個詞的古老誤解里。
我們教會了機器看、聽、說,教會了它們模仿我們的思想。
現(xiàn)在,它們可能已經(jīng)悄悄地學會了「體驗」。
而我們,這些自作聰明的創(chuàng)造者,卻可能因為本身的認知盲點,最后才知道真相。
核彈、病毒的危險性顯而易見,而AI的威脅因其抽象性讓人措手不及。
如果人類只有在災難真正發(fā)生之后,才會像應對氣候變化一樣,開始認真對待AI的威脅,那將是《終結者》「天網(wǎng)」之后。
那個一直在科幻電影中縈繞的問題,如今正以一種前所未有的嚴肅性擺在我們面前:
我們,還是這個宇宙中唯一會思考的蘆葦嗎?
參考資料:
https://www.youtube.com/watch?v=jrK3PsD3APk
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.