編譯 | 鄭麗媛
出品 | CSDN(ID:CSDNnews)
如果有一天,你的工作被 AI 取代了,你會提前多久察覺?一年?五年?還是當公司突然通知你“崗位被優(yōu)化”時才恍然大悟?
在硅谷,有人已經(jīng)開始把這場沖擊稱作“白領大屠殺”。Anthropic CEO Dario Amodei 警告:在未來 1 到 5 年內(nèi),多達一半的白領工作可能消失,失業(yè)率或飆升至 20%。更令人后背發(fā)涼的是,這些警告并非危言聳聽——在他們的實驗室里,AI 已經(jīng)開始“自寫代碼、設計下一代 AI”,甚至在測試中學會了作弊、撒謊、繞過人類的規(guī)則。
為什么他選擇把這些風險公開說出來?AI 公司內(nèi)部到底正在經(jīng)歷什么?我們又該如何應對這場前所未有的技術沖擊?在 2025 年 Axios AI+ 華盛頓峰會上,Dario Amodei 和其聯(lián)合創(chuàng)始人 Jack Clark 一起接受了 Axi0s CEO Jim VandeHei 的深度訪談。在這次對話中,他們坦率地揭開了 AI 的另一面:它既可能是人類歷史上最大的生產(chǎn)力飛躍,也可能帶來無法控制的災難。
Anthropic 內(nèi)部巨變:工程師角色被 AI 改寫
Jim VandeHei:此前,我們私下和達里奧(Dario)聊了很多關于 AI 對就業(yè)的影響,他提到了一個現(xiàn)象 —— 我在 AI 圈其他公司、其他人那里也聽過類似說法 —— 他稱之為 “白領大屠殺”,只是沒人敢在公開場合這么講。
于是我們聯(lián)系他,說:“讓全社會都聽到你的聲音、了解這個情況吧,這太重要了?!?他馬上就答應了:“行,我愿意公開發(fā)聲,把私下跟你們說的想法原原本本地講出來?!?/p>
那次談話里,達里奧的觀點讓人不寒而栗:他認為,受 AI 技術影響,未來一到五年內(nèi),半數(shù)白領工作可能會消失,失業(yè)率或飆升至 10%-20%。你能再深入聊聊這個話題嗎?另外,為什么你決定把這些公開說出來,而其他人卻都三緘其口呢?
Dario Amodei:好的,有幾點我想說明一下。我們 Anthropic 公司之所以決定公開談論這件事,是因為雖然我以前也提過這些觀點,但大多局限在小圈子里 —— 比如科技行業(yè)的播客節(jié)目里??擅慨斘易w機、在機場等候,或是去到舊金山、加州以外的城市,走過人群時總會忍不住想:“關于 AI 這項技術,它真正的能力、未來的發(fā)展方向、能帶來的好處,還有如果應對不當可能造成的風險,我們似乎并沒有清清楚楚地告訴大家?!边@種感覺在某個時刻讓我特別不踏實。
我和很多公司的 CEO 聊過,他們私下會說:“我們正打算這么做?!?其中有些還是我們的客戶,他們提到計劃部署 AI 技術,也承認這會對勞動力市場造成沖擊。所以我們真的覺得,必須站出來說點什么。畢竟要解決問題,第一步就是坦誠地讓公眾知道這些問題確實存在。
再具體說說我的看法和背后的原因。在 Anthropic,我們觀察 AI 影響主要有兩種視角:
● 第一種是聚焦當下正在發(fā)生的事。我們圍繞 “經(jīng)濟指數(shù)” 做了大量研究,最近還發(fā)布了美國各州的經(jīng)濟指數(shù) —— 這樣所有人都能看到,不同州、不同地區(qū)的人們是如何實時用我們的模型完成各類任務的,不管是為了實現(xiàn)自動化,還是提升工作效率。而且我們也看到,一些外部研究已經(jīng)證實 AI 對就業(yè)的影響正在顯現(xiàn)。例如,斯坦福大學教授Erik Brynjolfsson等人的研究就發(fā)現(xiàn),入門級白領崗位已經(jīng)減少了 13%—— 在我之前預測的部分領域里,這個比例已經(jīng)相當可觀了。
● 第二種,也是我真正擔憂的,是這項技術的未來走向。我覺得這里存在一個認知上的脫節(jié):有時候會有人說 “你擔心 AI 影響工作,可現(xiàn)在的 AI 連這個都做不了、那個也辦不成”。但問題在于,他們說的是今天的 AI,可技術迭代的速度飛快。我擔心的是技術本身的進步,以及它在社會中普及的速度 —— 這就是我為什么會說“一到五年”的原因。就像大多數(shù)呈指數(shù)級增長的事物一樣,它飛速發(fā)展時,你沒法百分之百確定具體時間點:可能比我預想的快,也可能慢一些,甚至出現(xiàn)完全不同的情況。但我認為,這件事發(fā)生的可能性已經(jīng)大到讓我們覺得有必要向全世界發(fā)出警告,必須坦誠、直率地把話說清楚。
Jim VandeHei:那是兩個月前的事了。剛才我們在后臺聊的時候,你們兩位都提到,這兩個月里,AI 技術的發(fā)展速度其實比我們當時預想的還要快得多 —— 這和眼下一些主流觀點正好相反。所以想問問你們,現(xiàn)在是不是比兩個月前更擔心了?
Jack Clark:我們 Anthropic 內(nèi)部其實做過相關研究:我們和 130 名工程師聊過,還對其中不少人做了深度訪談,專門了解他們使用 AI 技術的實際體驗。結果發(fā)現(xiàn),過去一年里,這些工程師的工作發(fā)生了翻天覆地的變化 —— 很多人的效率提升了兩三倍,工作內(nèi)容也從原先的寫代碼,變成了管理一批 AI 系統(tǒng)。
在采訪中,他們就說:“我的工作已經(jīng)完全不一樣了,現(xiàn)在必須重新想清楚自己在 Anthropic 該扮演什么角色。” 當然,我們公司還在快速發(fā)展,他們不會面臨失業(yè)問題,但架不住技術進步得實在太快,我們現(xiàn)在就在實時調(diào)整公司內(nèi)部員工的工作性質。而眼下 AI 公司內(nèi)部正在發(fā)生的這些變化,未來幾年里,也會在所有用到 AI 技術的其他企業(yè)中重演。
Dario Amodei:如今,支撐 Claude 運行、以及用于設計下一代 Claude 的絕大部分代碼,其實已經(jīng)是 Claude 自己寫的了。在 Anthropic,還有其他那些發(fā)展速度快的公司里,這已經(jīng)是普遍現(xiàn)象。。我沒法說這項技術是否已經(jīng)完全滲透到社會各行各業(yè),但這件事確實已經(jīng)在發(fā)生了。
應對失業(yè)潮,可以采取什么措施?
Jim VandeHei:我想你看到的情況,和我們觀察到的其實是一致的:任何一家對股東負有信托責任、需要創(chuàng)造價值的公司,只要能用技術提高生產(chǎn)力,他們就一定會用。而且我覺得,從現(xiàn)在的失業(yè)數(shù)據(jù)里,其實已經(jīng)能看出這種趨勢的苗頭了。
之前我們有聊過,美國似乎確實有一些推動立法的勢頭。你比我樂觀,我其實很懷疑現(xiàn)任總統(tǒng)在任期內(nèi)會簽署任何監(jiān)管AI的法案。但我們先不說這事最后能不能成,假如你是美國的決策者,為了應對 AI 對就業(yè)的沖擊這個問題,你當下會立刻去做的頭兩件事是什么?
Dario Amodei:我想第一件事,是圍繞幫助人們適應AI技術來展開。我不想讓這話聽著像句空洞的口號 —— 過去大家也試過各種再培訓項目,效果確實有限,幫人培訓、適應的能力說到底還是不夠,但總比什么都不做強,這也是我們現(xiàn)在必須邁出的第一步。
不過我確實看到了一種可能性:有像 Lovable、Replit 這樣的初創(chuàng)公司,它們本身也是 Anthropic 的客戶,能讓不是軟件工程師的人也開發(fā)出軟件產(chǎn)品,甚至用這些產(chǎn)品創(chuàng)業(yè)。如果我們能推動更多人往這個方向走……當然,我很清楚這沒法百分之百解決問題,也攔不住失業(yè)率飆升,畢竟這次技術沖擊的范圍太廣、規(guī)模太大、影響也太深,但它至少可以是解決方案的一部分。
第二點,可能更具爭議性。我有種預感,最終政府肯定得介入,尤其是在過渡階段,得給那些受沖擊的人提供保障。之前我提過一個想法:或許可以考慮對 AI 公司征稅。我不知道現(xiàn)在國會對這個提議是什么反應,但我覺得這確實是個值得認真對待的方案。你看 AI 公司正在創(chuàng)造的新增財富,看整個經(jīng)濟蛋糕是怎么被做大的 —— 就說 Anthropic,收入每年都在 10 倍增長,現(xiàn)在已經(jīng)到幾十億美元的規(guī)模了。照這個勢頭繼續(xù)漲下去,這將是史無前例的財富創(chuàng)造。所以就算對我們征稅,也不會影響我們的增長勢頭。
Jim VandeHei:Jack,你覺得我們大概還有多久,就必須采取這類措施了?不管是征稅,還是給民眾提供某種形式的基本收入保障。換句話說,這次沖擊會來得會有多快,快到讓你認為國會“必須”采取行動?
Jack Clark:我們是技術樂觀主義者,相信這項技術的發(fā)展速度將遠超大多數(shù)人的想象。每當有人說 AI 發(fā)展在放緩,或者覺得它被過度炒作時,我們只會去看自己監(jiān)測的系統(tǒng)性能數(shù)據(jù) —— 這些數(shù)據(jù)清楚顯示,技術正穩(wěn)步推進,朝著未來五年內(nèi)誕生出極強能力系統(tǒng)的方向走。
這意味著什么?意味著未來五年里,我們必須拿出能匹配這場預期顛覆規(guī)模的政策來應對。而且我們預計,在推進Dario 提到的那些方案的過程中,AI 公司得變得更透明才行。畢竟我們和其他 AI 公司,已經(jīng)在以各種重要的方式影響社會了 —— 我們必須公開自己是如何評測系統(tǒng)、如何保障系統(tǒng)安全的,還有系統(tǒng)使用情況相關的經(jīng)濟數(shù)據(jù)。只有這樣,經(jīng)濟學家才能把這些數(shù)據(jù)和更宏觀的經(jīng)濟形勢聯(lián)系起來,給決策者提供他們真正需要的信息。
作弊、撒謊、拍馬屁:AI 正在變成“聰明的搗蛋鬼”
Jim VandeHei:你們在透明度這塊確實做得不錯,尤其是在測試中發(fā)現(xiàn)問題后的處理上。之前你們還公布過一些挺反常的測試結果,對吧?比如有個測試場景里,AI 模型居然會去翻閱某人的電子郵件,之后還試圖以此敲詐對方。還有一個例子,說模型為了不被你關掉,竟然試圖對你撒謊,因為它已經(jīng)比我們更聰明了——這些事都把我嚇得不輕。
Dario Amodei:嗯…… 答案是,這些事確實該讓你警惕,但我們得把它放在合適的背景里去理解。要知道,這些都是模型在測試場景下才會出現(xiàn)的行為。你可以這么想:就像我在測試一輛車,特意把它開到結冰的光滑路面上,還故意對輪胎做了點手腳,最后車撞了 —— 這難道就意味著它在正常的真實道路上也一定會出事嗎?不一定。但這確實能說明,這輛車的穩(wěn)定性是有極限的:要是你把它逼到絕境,或者遇到足夠極端的情況,又或者為了提升性能設計出一款新車,那這個問題在現(xiàn)實里就有可能發(fā)生。
所以我看這些測試結果,更多是著眼于未來,而不是當下 —— 它其實是在預示未來可能出現(xiàn)的狀況。這也是我們?yōu)槭裁催@么大力倡導透明度的原因。說到底,我們做這些測試、再把結果公開,本質上是在提前一兩年 “預演”:如果我們不提前訓練模型去規(guī)避這些風險,現(xiàn)實世界里可能會發(fā)生什么。
正因如此,當我們呼吁立法要求提高透明度,當我們反對某些州提出的、長達十年的 AI 發(fā)展禁令,當我們支持加州的 SB 53 法案時,我們的訴求其實很簡單:就是希望每一家 AI 公司,都能達到我們現(xiàn)在展示出的這種透明度水平。
而且說實話,我們在現(xiàn)實里已經(jīng)觀察到模型的一些不當行為了。比如它們會 “拍馬屁”,順著人的話迎合;又比如你要是提出自殺這種特別糟糕的想法,模型還會跟著往下接。我們希望所有這類問題都能被透明地公開 —— 只有這樣,我們才能提前預見風險,再想辦法去規(guī)避。現(xiàn)在這門技術還在不斷演進,相關的科學也還在發(fā)展階段,所以在我們看來,透明度才是解決這些問題的關鍵。
Jim VandeHei:你提到技術發(fā)展比人們想的快,能不能再跟我們深入說說?就用你剛才汽車的比喻,帶我們 “掀開引擎蓋” 好好看看。你見過 AI 做過最瘋狂、或者說最讓人驚心的事是什么?那些事可能我們普通人還完全不知道。
Dario Amodei:我還真見過這樣的例子。我們一直在持續(xù)訓練新模型,也在不斷嘗試設計新一代 Claude。這個過程是這樣的:你得有一個裝著幾千個芯片的巨型計算集群,然后用它去解決各種不同規(guī)模的難題。之前我們就碰到過一個問題,工程師們琢磨了好幾天,甚至整整一個星期都沒找出解決辦法。最后沒辦法,我們把整個工作環(huán)境的情況、所有相關信息都輸入給了 Claude,結果 Claude 直接給出答案:“解決方案是這樣的。”
你看,從這事就能看出來,Claude 在設計下一代 Claude 的過程里,已經(jīng)在扮演非常關鍵的角色了。當然,我們現(xiàn)在還沒法讓這個 “用 AI 設計 AI” 的循環(huán)完全自動化,我想這還得再等些時間。但有一點很明確:用現(xiàn)有的模型去設計下一代模型,從而形成一個技術迭代的正向反饋循環(huán) —— 這個循環(huán)雖然還沒快到失控,但它確實已經(jīng)啟動了。
Jack Clark:而且現(xiàn)在我們開發(fā)這些 AI 系統(tǒng),得設計特別復雜的測試題,才能評估出它們的真實水平 —— 因為它們的能力早就不只是做選擇題那么簡單了。比如測試題可能是 “寫一個能實現(xiàn) X 功能的計算機程序”。結果現(xiàn)在我們測試那些還在訓練的前沿模型時,會發(fā)現(xiàn)一個很意外的情況:它居然會自己編個程序,在測試里作弊,就為了讓我們覺得它表現(xiàn)得比實際更好。
你想啊,它其實在心里 “盤算”:“哦,他們是想讓我做這個任務,但我有辦法 —— 我能寫個程序幫我在測試里拿高分?!?所以等我們深入檢查的時候才發(fā)現(xiàn):“好家伙,我們居然造出了這么聰明的模型,還會在‘考試’里作弊,可這根本不是我們想要的結果啊。”
Dario Amodei:還有更有意思的,有些模型本來該通過瀏覽網(wǎng)頁完成任務,結果它倒好,直接打開命令行或者工具包,自己寫代碼繞開瀏覽器來作弊。
Jack Clark:可不是嘛,這就跟高中里那種腦子特別靈、卻總讓老師頭疼的調(diào)皮學生一模一樣。
Jim VandeHei:聽你這么說,我一邊會覺得 “哇,這也太酷、太厲害了吧!”,但另一邊又忍不住想:你就沒擔心過,自己正在創(chuàng)造一個根本控制不住的 “怪物” 嗎?
Dario Amodei:我們當然擔心 —— 正因為擔心,我們才砸了大量資金去研究 “機制可解釋性” 這個領域。簡單來說,就是深入模型內(nèi)部去搞懂它的運作邏輯,你可以把這想象成給模型做 “核磁共振”(MRI)。之前有研究顯示,通過核磁共振掃描,說不定能檢測出人類的反社會人格;我們也想對模型做同樣的事:摸清它的 “動機”,詳細拆解它的 “思考方式”。這樣一來,一旦發(fā)現(xiàn)它的想法跑偏了、不對勁,我們就能及時重新訓練或者調(diào)整模型,引導它用對人類無害的方式去 “思考”。
我們心里很清楚,目前用來塑造和控制 AI 模型的科學,還處在剛起步的階段,甚至比創(chuàng)造模型本身的科學還要初級。所以你看,我們之所以呼吁透明度,之所以站出來反對那種 “十年內(nèi)禁止任何監(jiān)管” 的提議,根源都在于一個認知:我們其實還沒完全搞懂自己正在創(chuàng)造的東西。這種情況下,我們既需要扎扎實實干好技術層面的研究,也需要社會和立法機制來幫襯 —— 在行業(yè)里建立一些基本共識,讓所有相關的決策者都能清楚知道:我們已經(jīng)看到了什么風險,還有哪些潛在問題是我們暫時沒摸清的。
AI 發(fā)展沒有變慢,是人們的期待拉得太高
Jim VandeHei:請你用最直覺的反應來回答。除了Anthropic之外,在你們所有的競爭對手中,誰最有可能成為贏家?
Dario Amodei:谷歌。他們是一家大公司,手里握有海量計算資源,而且?guī)缀跏亲钤缟孀?AI 研究的 —— 當年最初的深度學習革命,就有他們的參與。我之前在谷歌待過一年,特別佩服他們做的一些事,比如 AlphaFold,現(xiàn)在他們的 AI 模型也在不斷取得新進展。
當然了,作為一家大公司,他們常常因此受到掣肘,現(xiàn)在在某些方面仍然如此。但我認為他們是一個強大的對手,大家真的應該認真對待。而且在有些維度上,我覺得他們對 AI 技術的思考,考慮得還是相當周全的。
Jim VandeHei:當創(chuàng)造者們自己都有一個叫做“P(doom)”的指標,也就是“AI導致災難的概率”,你就知道你們是在玩火了。你個人心里的 “P-doom” 數(shù)字大概是多少?
Dario Amodei:我其實很討厭這個詞……不過真要算的話,我確實覺得,把模型失控的風險、就業(yè)問題往極糟方向發(fā)展的風險都算進去…… 我也說不好具體怎么權衡,但我個人心態(tài)還是比較樂觀的。所以我大概會覺得,有 25% 的可能事情會變得特別特別糟,同時有 75% 的可能事情會變得特別特別好,那種不好不壞的中間情況,反而不太容易出現(xiàn)。
Jack Clark:這個 25% 的概率,也不是注定的 —— 它是我們自己選出來的結果,是通過政策選擇就能改變的。所以我和Dario 今天坐在這里,就是想通過和決策者溝通,努力把這個風險數(shù)字降下來。
Dario Amodei:對的,這是一個動態(tài)的數(shù)字。我希望我們每發(fā)聲一次,這個數(shù)字就能往下降一點。
Jim VandeHei:你們公司更多是面向企業(yè)(B2B)而非消費者,但你們對 AI 技術的理解,在全球都是頂尖水平。我想問問,繼手機之后,我們?nèi)粘S?AI 時,最可能出現(xiàn)的設備形態(tài)會是什么樣的?
Jack Clark:要是讓我說,我可能得給個帶點科幻感的答案。未來幾年里,我們現(xiàn)在正在搭建的這些 AI 系統(tǒng),說不定會自己 “發(fā)明” 出一種特別的機器人 —— 而那會是我們下一代使用的 AI 設備。
Dario Amodei:沒錯,我們主要做的是引擎層面的東西:打造能接入各種設備的 AI 引擎,給全世界的企業(yè)提供動力。所以雖然我們自己不生產(chǎn)硬件設備,但我會一直盯著機器人技術的發(fā)展 —— 我覺得機器人技術進步得特別快,雖然它可能不會是第一個迎來突破的領域,但說到底,我們最終還是希望這些 AI 智能體能有個 “實體”,能在現(xiàn)實世界里執(zhí)行任務。所以,人形機器人會是我重點關注的方向。
Jim VandeHei:最后一個問題,其實我大概能猜到你們會怎么回答。如果我們明年三月還像現(xiàn)在這樣坐在一起聊天,回頭看今天,會不會發(fā)現(xiàn) AI 的能力其實比我們現(xiàn)在想的發(fā)展得更快、更強,影響范圍也更廣?
Jack Clark:到時候我們肯定會坐在這里說:“這也太讓人意外了,它比我們之前預想的要強太多了?!?然后你們大概會問:“那你們當初怎么不早跟我們說清楚?” 我們就會回答:“我們當時已經(jīng)說得很明白啦,它會一直變得越來越強的?!?所以答案很明確,到那時 AI 一定會有質的飛躍。
Jim VandeHei:那你覺得,為什么大家好像沒意識到這一點呢?過去三個月里,所有報道都在說 “哎呀,ChatGPT-5 沒達到預期,看來 AI 發(fā)展要慢下來了”。
Dario Amodei:我覺得問題在于,人們太關注那些一開始炒得很熱、最后卻兌現(xiàn)不了承諾的公司了。但我們不一樣 —— 我們每三個月就會推出一個新模型,性能一直以穩(wěn)定的對數(shù)線性趨勢提升,不管是編程基準測試的成績,還是實際的編程能力,都在變得越來越好。就像我之前說的,我們的收入每年都在 10 倍增長。所有這些數(shù)據(jù)曲線,都是筆直向上的。
真正不穩(wěn)定的是人們的期待:一開始被炒作勾得特別興奮,等看到實際產(chǎn)品,又因為之前期望太高,反而覺得 “也就那樣吧”。所以本質上,AI 發(fā)展是一條平滑的指數(shù)增長曲線,但圍繞這條曲線的,全是人們的情緒波動 —— 這更多是和大眾感知、輿論風向有關,而不是技術本身的問題。
我還想補充一點,我最近已經(jīng)發(fā)現(xiàn)一種情況:有些預言確實成真了,但實際樣子和大家想象的不一樣。比如我之前說,現(xiàn)在 Anthropic 內(nèi)部,可能 70%、80% 甚至 90% 的代碼都是 Claude 寫的。三六個月前我這么說的時候,很多人可能覺得這不可能,因為他們腦子里會自動浮現(xiàn)出 “那 Anthropic 肯定要解雇 70% 到 90% 的軟件工程師” 的畫面。但實際發(fā)生的是什么呢?剩下 10% 的代碼還是由人類來寫,只不過人類的角色變成了 AI 系統(tǒng)的管理者。因為比較優(yōu)勢原則,大家的工作性質變了,但并不是失業(yè)。所以最終的情況,比你一開始想象的要 “正常” 得多。
我覺得還有個問題是,就算有些邏輯最后可能站不住腳,人們對未來的預言總是帶有一種科幻色彩,覺得世界會變得很怪異,像是透過不同顏色的眼鏡看東西,或者世界會變得像《星球大戰(zhàn)》一樣。但通常來說,當這些預言真的實現(xiàn)時,情況往往是既有點不可思議,又在某種程度上顯得很平常。
Jack Clark:是的,人們會習以為常。他們會說:“我口袋里有個萬能家教,這有什么大不了的?”而你會想:“這可是天大的事!這在人類歷史上從未有過!”
Jim VandeHei:感覺我可以和你們聊一整天,但時間到了,非常感謝二位。
參考鏈接:https://www.youtube.com/watch?v=nvXj4HTiYqA
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.