算泥社區(qū)是集 “AI 大模型開發(fā)服務 + 算法 + 算力” 于一體的開源生態(tài)社區(qū),歡迎關注!
一篇發(fā)表在2025年《自然·機器智能》(Nature Machine Intelligence)上的研究,像一顆深水炸彈,炸開了人工智能和人類認知之間最深的那道墻。
這篇由二十多位國際頂尖專家聯手的研究,它告訴我們,AI和人類在“泛化能力”上,壓根就不是一回事。
什么叫泛化能力?說白了,就是舉一反三、活學活用的本事。
你給一個小孩看幾把椅子,他就能認識世界上所有的椅子,甚至能把一個沒見過的墩子也叫“椅子”,因為他理解了“椅子是用來坐的”這個抽象概念。
AI呢?你給它看一百萬張椅子的照片,它能以極高的精度認出第一百萬零一張椅子。但如果這張椅子是一個沒見過的墩子,它可能就懵了。
咱們聊的不是一回事
研究牽頭人之一,Benjamin Paassen教授一針見血地指出:“‘泛化’對AI和人類來說,意味著完全不同的事情”。
這就是問題的核心。
人類的泛化,走的是一條“抽象”的路。我們看世界,會自動忽略掉那些不重要的細節(jié),比如椅子的顏色、材質、高矮,然后抓住最本質的特征——“有個平面能支撐屁股”。這個過程,是概念思維。我們的大腦里形成了一個關于“椅子”的靈活框架,可以套用在任何新事物上。
AI的泛化,走的是一條“統計”的路。它沒有“概念”,只有“模式”。在它眼里,椅子不是一個功能性的東西,而是一堆像素點的特定組合。它通過學習海量數據,記住哪些像素組合最可能被標記為“椅子”。這更像是暴力破解,而不是真正的理解。
所以,人類的學習是高效的。一個概念,看幾個例子就通了。
AI的學習是笨重的。一個概念,需要成千上萬,甚至數百萬個數據樣本去喂養(yǎng),才能勉強“記住”模式。
這就引出了一個更深層的問題:大腦和算法的底層邏輯,到底有什么不同?
一個靈活一個死板
我們的大腦里,有個叫“前額葉皮層”的地方,它就像一個總指揮官,負責認知靈活性。當老辦法行不通時,它會立刻跳出來,抑制住你的習慣性動作,讓你嘗試新的解決方案。那些前額葉受損的病人,做日常老一套的事情沒問題,但凡需要一點創(chuàng)新或適應新規(guī)則,就抓瞎了。
大腦還有一套非常聰明的“雙過程系統”。
系統1,是直覺系統,快、自動、不費腦子,憑感覺走。比如你一眼認出朋友,或者開車時下意識地踩剎車。
系統2,是分析系統,慢、刻意、非常費勁,負責邏輯推理。比如你做一道復雜的數學題,或者規(guī)劃一次長途旅行。
人類牛就牛在,我們能在這兩個系統之間無縫切換,根據情況決定是“憑感覺”還是“過腦子”。
AI系統呢?它基本上只有一個“系統1”,而且還是個固化版的。它的模型在訓練好之后,參數就基本固定了,形成一個固定的解決方案。遇到新問題,它不會靈活切換策略,最多就是在原有模式里找一個最像的答案。想讓它真正適應,唯一的辦法就是“回爐重造”——用新的數據重新訓練一遍。
這種底層架構的差異,直接導致了性能上的天壤之別。
AI與人類PK
看看下面這張表,AI和人類在幾個關鍵任務上的表現,差異一目了然。
表1:AI與人類在不同任務上的性能對比
你看,在規(guī)則明確、環(huán)境可控的場景下,AI是神。比如自動駕駛,谷歌的Waymo系統在特定條件下,能把嚴重傷害事故減少91%,比人類司機穩(wěn)多了。
可一旦環(huán)境變得復雜多變,AI就立刻“拉胯”。比如語音識別,在安靜的實驗室里,AI的錯誤率可能極低,可一到嘈雜的馬路邊,它的錯誤率能飆升到50%以上,連話都聽不清了。人類卻沒這個問題,我們在菜市場照樣能聊天。
為什么?因為AI的泛化是“域內”的,它只能處理和訓練數據分布相似的情況。一旦遇到“域外”(Out-of-Domain)的情況,比如沒見過的口音、突如其來的噪音,它的性能就會斷崖式下跌。
這背后的機制差異,下面這張表總結得更清楚。
表2:AI與人類泛化機制對比
AI是個偏科嚴重的“天才書呆子”,在它擅長的領域能碾壓人類,但綜合素質和適應能力被人類吊打。
為了更精確地量化這種差異,我們還可以看一些更硬核的技術參數。
表3:AI系統在不同泛化任務上的性能參數
再看看人類大腦這個“生物處理器”的性能參數。
表4:人類認知系統性能參數
對比這兩張表,你會發(fā)現,AI在算力上是怪物,但在效率、適應性和抽象能力上,離人腦還差得遠。
那么,搞清楚這些差異,到底有什么用?
未來是人機協作,不是誰取代誰
用處太大了。它徹底改變了我們設計人機協作系統的思路。
以前,我們總想讓AI變得更像人,甚至取代人?,F在我們明白了,這是條死胡同。它們根本就不是一個“物種”。
未來的方向,不是替代,而是互補。
就像一個完美的搭檔,AI負責它擅長的:處理海量數據、執(zhí)行重復性任務、在規(guī)則明確的領域里做決策。人類則負責我們擅長的:處理模糊和不確定的情況、進行創(chuàng)造性思考、做出涉及倫理和價值觀的判斷。
在醫(yī)療領域,AI可以像個不知疲倦的顯微鏡,在成千上萬張醫(yī)學影像中標記出可疑的病灶,但最終的診斷和治療方案,必須由醫(yī)生來定奪。因為醫(yī)生不僅看片子,還看病人,他需要結合病人的情緒、家庭狀況和倫理考量來做決策,這些是AI無法量化的。
在自動駕駛領域,AI可以處理99%的常規(guī)路況,遵守交通規(guī)則比任何人都嚴格。但當遇到一個皮球滾到馬路上,后面可能跟著一個孩子的極端場景時,需要人類的常識和瞬間決斷力來介入。
這種“AI輔助人類”或“人類監(jiān)督AI”的協作模式,效果驚人。
表5:人機協作系統性能參數
數據清晰地顯示,當人機形成有效協作時,無論是速度、準確率還是適應性,都遠超任何一方單打獨斗。
這篇《自然·機器智能》的研究,為我們指明了方向。未來的AI發(fā)展,重點不再是單純地刷榜、追求更高的測試分數,而是要研究如何讓AI更好地理解人類,如何設計出更透明、更可解釋的系統,讓人類能夠信任并與之高效協作。
這需要計算機科學家、認知科學家、神經科學家甚至人文社科學者一起努力。
你覺得在你的工作領域,AI應該扮演一個什么樣的角色?
參考資料:
https://www.nature.com/articles/s42256-025-01109-4
https://neurosciencenews.com/human-ai-adaption-neuroscience-29689
https://techxplore.com/news/2025-09-machines-struggle-unknown-exploring-gap.html
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.