夜夜躁很很躁日日躁麻豆,精品人妻无码,制服丝袜国产精品,成人免费看www网址入口

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

停止將“AGI”視為人工智能研究的北極星目標(biāo)

0
分享至

Stop treating ‘AGI’ as the north-star goal of AI research

停止將“AGI”視為人工智能研究的北極星目標(biāo)

https://arxiv.org/pdf/2502.03689v1



摘要

人工智能研究界在設(shè)定人工智能研究的科學(xué)、工程與社會(huì)目標(biāo)方面起著至關(guān)重要的作用。在本立場(chǎng)文件中,我們認(rèn)為,聚焦于極具爭(zhēng)議的“通用人工智能”(AGI)話題,削弱了我們選擇有效目標(biāo)的能力。我們指出了六個(gè)關(guān)鍵陷阱——即阻礙目標(biāo)設(shè)定有效性的障礙——而AGI的論述加劇了這些陷阱:共識(shí)幻覺、劣質(zhì)科學(xué)加速器、價(jià)值中立假象、目標(biāo)彩票、泛化債務(wù)以及被正常化的排斥。為避免這些陷阱,我們認(rèn)為人工智能研究界需要(1)在工程與社會(huì)目標(biāo)中優(yōu)先考慮具體性;(2)以多元主義為核心,承認(rèn)通向多種寶貴目標(biāo)的多種值得追求的路徑;(3)通過更廣泛地納入不同學(xué)科與社群來促進(jìn)創(chuàng)新。因此,人工智能研究界應(yīng)當(dāng)停止把“AGI”視為人工智能研究的北極星式目標(biāo)。

1. 引言

我們?nèi)绾未_保人工智能研究目標(biāo)真正服務(wù)于科學(xué)、工程與社會(huì)的需求?什么才構(gòu)成人工智能研究中的“好科學(xué)”?誰有權(quán)制定人工智能的研究目標(biāo)?什么樣的研究目標(biāo)才算正當(dāng)或有價(jià)值?在本立場(chǎng)文件中,我們認(rèn)為,對(duì)“通用人工智能”(AGI)的普遍關(guān)注正在削弱研究人員為這些問題提供充分動(dòng)機(jī)答案的能力。

近期大語言模型(LLM)的進(jìn)展,重新點(diǎn)燃了把“實(shí)現(xiàn)人類級(jí)智能”視為人工智能領(lǐng)域“北極星目標(biāo)”的興趣(Morris 等,2023;McCarthy 等,1955)。這一目標(biāo)通常被稱為“人工通用智能”(AGI)(Chollet,2024;Tibebu,2025)。然而,AGI 話語并未幫助該領(lǐng)域圍繞共同目標(biāo)聚合,反而使其深陷爭(zhēng)議。研究人員對(duì) AGI 的定義、目標(biāo)假設(shè)與風(fēng)險(xiǎn)評(píng)估莫衷一是(Summerfield,2023;Morris 等,2023;Blili-Hamelin 等,2024)。研究人員進(jìn)一步質(zhì)疑 AGI 相關(guān)宣稱的動(dòng)機(jī)、激勵(lì)、價(jià)值觀與科學(xué)地位(Gebru & Torres,2024;Mitchell,2024;Ahmed 等,2024;Altmeyer 等,2024)。最后,AGI 這一概念的核心基石——“智能”與“通用性”——本身就備受爭(zhēng)議(Gould,1981;Anderson,2002;Hernández-Orallo & O’héigeartaigh,2018;Cave,2020;Raji 等,2021;Alexandrova & Fabian,2022;Blili-Hamelin & Hancox-Li,2023;Hao,2023;Guest & Martin,2024;Paolo 等,2024;Mueller,2024)。

在先前關(guān)于機(jī)器學(xué)習(xí)探索性與驗(yàn)證性研究混淆(Herrmann 等,2024)、不科學(xué)性能宣稱(Altmeyer 等,2024)、追逐 SOTA(Raji 等,2021)、研究途徑同質(zhì)化(Kleinberg & Raghavan,2021;Fishman & Hancox-Li,2022;Bommasani 等,2022)、機(jī)器學(xué)習(xí)研究中的隱含價(jià)值觀(Birhane 等,2022b)等工作的基礎(chǔ)上,我們的論述指出了人工智能研究目標(biāo)設(shè)定中的關(guān)鍵障礙——陷阱1。我們認(rèn)為,AGI 敘事使克服每個(gè)障礙都變得更加困難。為避免這些陷阱,我們主張各社區(qū)應(yīng)停止把 AGI 視為人工智能研究的北極星目標(biāo)。

我們討論的首要主題是研究界在區(qū)分炒作與現(xiàn)實(shí)方面的獨(dú)特責(zé)任。人工智能研究成果以驚人速度被部署到現(xiàn)實(shí)世界,場(chǎng)景日益多元,影響數(shù)十億人。這迫切需要基于可信證據(jù),回答有關(guān)人工智能工具的科學(xué)、工程與社會(huì)價(jià)值的問題。正如聯(lián)合國(guó)人工智能咨詢機(jī)構(gòu)所言,“海量信息……使人們難以辨別炒作與真實(shí)。這會(huì)助長(zhǎng)混亂,阻礙共識(shí),并可能讓大型人工智能公司獲益,而犧牲政策制定者、公民社會(huì)和公眾的利益”(United Nations,2024)。本立場(chǎng)文件回應(yīng)了這一主題:我們論述中的六個(gè)陷阱都是區(qū)分炒作與現(xiàn)實(shí)的障礙。

我們討論的第二個(gè)主題是人與技術(shù)的關(guān)系。歸根結(jié)底,我們認(rèn)為,人工智能界不應(yīng)追求單一的北極星目標(biāo),而應(yīng)追求多元且具體的科學(xué)、工程與社會(huì)目標(biāo)。我們指出,關(guān)于復(fù)雜技術(shù)未來的敘事往往容易模糊炒作與現(xiàn)實(shí)的界限。如果圍繞一個(gè)替代性的統(tǒng)一目標(biāo)建立共識(shí)被證明有益,我們建議將“支持和造福人類”作為目標(biāo)。

下一節(jié),我們考察人工智能研究中的六個(gè)“陷阱”——即阻礙有效目標(biāo)設(shè)定的障礙(§2)。我們論證 AGI 話語強(qiáng)化并放大了每個(gè)問題。隨后,我們提出三項(xiàng)避免陷阱的建議(§3):目標(biāo)的具體化;目標(biāo)與途徑的多元主義;更具包容性的目標(biāo)設(shè)定。在結(jié)論部分的反駁中,我們?yōu)樽陨砹?chǎng)辯護(hù),反對(duì)“AGI 應(yīng)繼續(xù)作為該領(lǐng)域北極星目標(biāo)”的替代觀點(diǎn)(§4)。

鑒于 AGI 的爭(zhēng)議性質(zhì)是本文的核心主題,我們避免給出自己的定義,而是在討論中提供示例定義,并在附錄 A 中給出說明性定義表。

2. 陷阱

我們考察阻礙研究界設(shè)定有價(jià)值目標(biāo)的六個(gè)關(guān)鍵陷阱,并論證 AGI 敘事加劇了其中的每一個(gè)問題。

盡管我們的討論強(qiáng)烈聚焦于 AGI,但我們相信,這些觀點(diǎn)同樣適用于更廣泛的項(xiàng)目——即建立可信、循證的方法來討論人工智能研究的科學(xué)、工程與社會(huì)目標(biāo)。

我們討論的問題彼此高度關(guān)聯(lián)。例如,與錯(cuò)位激勵(lì)在目標(biāo)設(shè)定中的作用相關(guān)的 SOTA 追逐問題(§2.4),也對(duì)劣質(zhì)科學(xué)(§2.2)產(chǎn)生影響。同樣,對(duì) AGI 缺乏共識(shí)的問題(§2.1)也是一個(gè)貫穿始終的主題。我們并不打算將這些陷阱視為互斥;相反,我們的目標(biāo)是為每個(gè)陷阱提供清晰且有用的資源,以緩解在有效目標(biāo)設(shè)定中的失敗模式。

2.1 共識(shí)幻覺

使用共享術(shù)語,從而給人一種對(duì)目標(biāo)已達(dá)成共識(shí)的假象,盡管這些目標(biāo)實(shí)際上存在爭(zhēng)議。“AGI” 一詞的日益流行(Holland,2025;Grossman,2023;IBM,2023)營(yíng)造了一種熟悉感,使人誤以為對(duì) AGI 是什么已有共同理解,并對(duì) AGI 開發(fā)的研究目標(biāo)達(dá)成廣泛一致。然而,對(duì)于該術(shù)語所指為何、AGI 研究議程應(yīng)包含哪些內(nèi)容,以及 AGI 開發(fā)中的具體目標(biāo)為何,人們存在著巨大分歧。若放任不管,這種幻覺會(huì)阻礙人們就 AI 研究的目標(biāo)及其應(yīng)然狀態(tài)進(jìn)行明確的探討。

從大眾話語到研究論文再到企業(yè)營(yíng)銷材料,絕大多數(shù)對(duì) AGI 的引用都落入了這一陷阱,即不加批判地引述所謂 AGI 的主張。關(guān)于媒體不加批判報(bào)道的例子,可參見 Grossman(2023)、IBM(2023);關(guān)于被過度炒作的研究示例,參見 Altmeyer 等(2024)。Summerfield(2023)總結(jié)道:“AI 研究者希望找到如何構(gòu)建 AGI 的方法,但問題在于沒人真正知道 AGI 長(zhǎng)什么樣。”Mueller(2024)則稱 AGI 是“一個(gè)無意義的概念,一個(gè)皇帝的新衣”。Blili-Hamelin 等(2024)指出,在嘗試定義 AGI 或人類級(jí) AI 的過程中存在多種分歧。AGI 作為目標(biāo)的爭(zhēng)議性在對(duì)其概念的批評(píng)中變得更加尖銳(參見 Altmeyer 等,2024;Mueller,2024;Van Rooij 等,2024)。

除 AGI 之外,AI 研究中還充斥著關(guān)于目標(biāo)、價(jià)值觀和概念的分歧。例如,Mulligan 等(2016)認(rèn)為,隱私應(yīng)被理解為一個(gè)“本質(zhì)上存在爭(zhēng)議的概念”。他們指出,關(guān)于隱私含義與重要性的缺乏共識(shí)并非僅僅是混淆所致——相反,分歧與爭(zhēng)議是可取的特征,使隱私能夠適應(yīng)不斷變化的技術(shù)與社會(huì)情境。類似地,現(xiàn)在人們已普遍認(rèn)識(shí)到,公平性也應(yīng)被視為一個(gè)有爭(zhēng)議的主題,不僅存在互斥的數(shù)學(xué)形式化,還存在互斥的價(jià)值觀、世界觀與理論假設(shè)(Friedler 等,2021;Jacobs & Wallach,2021)。

在提出這一陷阱時(shí),我們并不認(rèn)為有爭(zhēng)議的話題本身就存在問題。相反,我們認(rèn)為,在探討人工智能研究目標(biāo)這一重要問題時(shí),圍繞通用人工智能(AGI)存在的重大分歧,應(yīng)被視為價(jià)值觀沖突的信號(hào)而加以正視。

2.2 加劇不良科學(xué)

在追求通用人工智能(AGI)的過程中,概念和實(shí)驗(yàn)方法的模糊定義會(huì)加劇人工智能領(lǐng)域已有的“不良科學(xué)”問題。產(chǎn)生關(guān)于人工智能可靠經(jīng)驗(yàn)知識(shí)的研究,對(duì)于公眾判斷人工智能在社會(huì)和環(huán)境方面可能帶來的利益與危害至關(guān)重要。然而,許多專家已指出,人工智能研究普遍存在科學(xué)基礎(chǔ)薄弱的問題(聯(lián)合國(guó),2024;Sloane 等,2022;Narayanan 與 Kapoor,2024;Raji 等,2022;Widder 與 Hicks,2024;Suchman,2023;Hullman 等,2022;Van Rooij 等,2024;Guest 與 Martin,2024)。我們認(rèn)為,AGI 討論中的模糊性進(jìn)一步加劇了人工智能研究在科學(xué)有效性方面的既有問題。

問題1:定義不足與外部效度。將 AGI 作為具體目標(biāo)進(jìn)行追求的一個(gè)問題是“定義不足”(underspecification),即目標(biāo)或概念缺乏明確性,導(dǎo)致一系列認(rèn)識(shí)論問題,包括不可證偽性、缺乏外部效度、實(shí)驗(yàn)設(shè)計(jì)缺陷和評(píng)估方法不當(dāng)。這些問題在人工智能研究中普遍存在,而在 AGI 的語境下,由于缺乏科學(xué)依據(jù)的 AGI 定義(見第2.1節(jié)),情況更加嚴(yán)重。

學(xué)習(xí)目標(biāo)的定義不足也會(huì)損害外部效度——即測(cè)量結(jié)果是否真正反映了其所聲稱要捕捉的現(xiàn)實(shí)世界現(xiàn)象。一個(gè)典型例子是關(guān)于“語言理解”基準(zhǔn)測(cè)試是否真正衡量了語言理解的爭(zhēng)論(Jacobs 與 Wallach,2021;Liao 等,2021)。當(dāng)研究人員將人類心智能力與模型的代理指標(biāo)等同起來時(shí),外部效度也受到挑戰(zhàn)(Hullman 等,2022),例如聲稱一個(gè)“能夠?qū)⑻囟▽?duì)象與更廣泛的視覺上下文聯(lián)系起來”的模型是“想象力”的證據(jù)(Fei 等,2022)。這種修辭手法之所以成立,是因?yàn)槭褂昧恕跋胂罅Α钡热粘T~匯,卻未考慮其是否真正對(duì)應(yīng)人類的心智能力。Altmeyer 等(2024)同樣批評(píng) Gurnee 與 Tegmark(2024)因“世界模型”一詞的模糊性而做出夸大其詞的主張。定義不清的目標(biāo)會(huì)向下滲透到實(shí)驗(yàn)設(shè)計(jì)的諸多方面,包括學(xué)習(xí)流程、評(píng)估指標(biāo)、任務(wù)設(shè)計(jì)、表征方式和研究方法。

當(dāng)研究人員聲稱測(cè)量了來自其他領(lǐng)域的概念(如“智能”)時(shí),外部效度也受到損害。心理學(xué)、神經(jīng)科學(xué)和認(rèn)知科學(xué)已對(duì)人類智能研究了幾代人,但即使在這些領(lǐng)域,對(duì)于“智能”究竟是什么也尚未達(dá)成共識(shí)(Hao,2023;Gopnik,2019)。相反,人工智能研究已不再關(guān)注對(duì)人類認(rèn)知的建模(Van Rooij 等,2024;Guest 與 Martin,2024)。相反,人工智能開發(fā)者自行定義“智能”,優(yōu)先采用便于基準(zhǔn)測(cè)試或產(chǎn)品營(yíng)銷的定義(見第2.4節(jié)),同時(shí)利用“智能”一詞歷史上積極的聯(lián)想獲益。

問題2:科學(xué)與工程的混淆。追求 AGI 的另一個(gè)問題是科學(xué)與工程之間的混淆(Agre,2014;Hutchinson 等,2022;Altmeyer 等,2024)。正如 Hullman 等(2022)所指出的,一篇“典型的監(jiān)督式機(jī)器學(xué)習(xí)論文”(即在某個(gè)基準(zhǔn)上展示一些準(zhǔn)確率指標(biāo))往往只是一種“工程產(chǎn)物”,是一種附帶性能聲明的工具,但由于難以復(fù)現(xiàn),這些聲明無法被證偽。Altmeyer 等(2024)認(rèn)為,這種科學(xué)與工程的模糊性意味著,通常會(huì)省略“在特定條件下并考慮效應(yīng)量”的嚴(yán)格假設(shè)檢驗(yàn),研究結(jié)果往往被呈現(xiàn)為“工程成就”,卻未明確說明究竟在測(cè)試什么、相關(guān)假設(shè)是什么,以及什么樣的效應(yīng)量才構(gòu)成零假設(shè)。

這種模糊性助長(zhǎng)了實(shí)驗(yàn)者偏差和確認(rèn)偏誤,因?yàn)檠芯咳藛T有動(dòng)機(jī)“幾乎不關(guān)注競(jìng)爭(zhēng)性假設(shè)或解釋”,或“未能提出足夠強(qiáng)的零假設(shè)”(Altmeyer 等,2024)。當(dāng)一項(xiàng)研究是追求科學(xué)目標(biāo)(如解釋現(xiàn)象、驗(yàn)證假設(shè)等)還是特定工程應(yīng)用目標(biāo)(例如概念驗(yàn)證)不明確時(shí),科學(xué)與工程的混淆也會(huì)顯現(xiàn)(Hutchinson 等,2022)。這進(jìn)一步加劇了對(duì)外部效度的質(zhì)疑:在缺乏清晰和具體實(shí)驗(yàn)?zāi)繕?biāo)的情況下,更容易對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行事后的解釋,使其“支持”各種各樣的目標(biāo)。

問題3:確證性研究與探索性研究的混淆。工程與科學(xué)方法之間的模糊性,還關(guān)聯(lián)到另一個(gè)問題:確證性研究與探索性研究之間的混淆(Bouthillier 等,2019;Herrmann 等,2024)。Herrmann 等(2024)指出,確證性研究“旨在檢驗(yàn)已有假設(shè),以確認(rèn)或反駁現(xiàn)有理論”,而探索性研究則是一種開放性的方法,旨在對(duì)一個(gè)新領(lǐng)域或未探索領(lǐng)域獲得洞察與理解。他們進(jìn)一步認(rèn)為,“當(dāng)前大多數(shù)實(shí)證機(jī)器學(xué)習(xí)研究被包裝為確證性研究,但實(shí)際上應(yīng)被視為探索性研究”,實(shí)驗(yàn)往往“被設(shè)計(jì)為確認(rèn)(隱含的)假設(shè),即所提出的方法構(gòu)成了一種改進(jìn)”(原文強(qiáng)調(diào))。通過隱性地將探索性分析與確證性研究混為一談,“探索性發(fā)現(xiàn)會(huì)隨著研究過程的推進(jìn),以一種模糊的方式‘轉(zhuǎn)化’為計(jì)劃內(nèi)的發(fā)現(xiàn)”(Calin-Jageman & Cumming, 2019)。若使用模糊且有爭(zhēng)議的AGI概念來構(gòu)建確證性主張,會(huì)加劇這一問題,因?yàn)樗沟萌藗兏y弄清究竟在主張什么。

2.3 假定價(jià)值中立

當(dāng)政治、社會(huì)或倫理考量是隱含的或至關(guān)重要的,卻將目標(biāo)表述為純粹技術(shù)性或科學(xué)性的,就陷入了“假定價(jià)值中立”的陷阱。

當(dāng)技術(shù)或科學(xué)目標(biāo)與其蘊(yùn)含的價(jià)值假設(shè)脫節(jié)時(shí),就會(huì)出現(xiàn)“假定價(jià)值中立”現(xiàn)象——而這些假設(shè)本應(yīng)受到政治、社會(huì)和倫理因素的影響。人工智能研究界最近才開始審視這些蘊(yùn)含價(jià)值的假設(shè)(Zhao 等,2024;Fishman & Hancox-Li,2022;Dotan & Milli,2020;Birhane 等,2022b;Scheuerman 等,2021;Hutchinson 等,2022;Bommasani,2022;Denton 等,2020;2021;Mathur 等,2022;Shilton,2018;Broussard 等,2019;Green,2021;Blodgett 等,2020;Viljoen,2021;Abebe 等,2020;Birhane & Guest,2021;Blili-Hamelin & Hancox-Li,2023;Blili-Hamelin 等,2024;Costanza-Chock,2020)。

當(dāng)定義AGI及相關(guān)概念的努力未能明確審視其定義中嵌入的社會(huì)目標(biāo)和價(jià)值觀時(shí),就落入了“假定價(jià)值中立”的陷阱。例如,“通用智能”(Legg & Hutter, 2007b; Hernández-Orallo 等,2014)的提案就是此類例子。

追求價(jià)值中立的做法,呼應(yīng)了關(guān)于人類智能心理測(cè)量觀點(diǎn)的爭(zhēng)論。如同“健康”和“福祉”一樣,智能本身就蘊(yùn)含著關(guān)于哪些行為或能力是可取的規(guī)范性假設(shè)(Anderson,2002;Alexandrova & Fabian,2022)。研究者通過回避這些價(jià)值負(fù)載的維度,陷入了“假定價(jià)值中立”的陷阱(Anderson,2002;Cave,2020;Blili-Hamelin & Hancox-Li,2023)。Warne & Burningham(2019)正是這樣做的典型例子:他們主張采用純粹統(tǒng)計(jì)性的智能定義,正是因?yàn)樗麄冋J(rèn)為文化定義存在差異。

AGI等概念中蘊(yùn)含的價(jià)值假設(shè),引發(fā)了關(guān)于其含義的合理分歧,反映了社會(huì)目標(biāo)的差異(Blili-Hamelin 等,2024)。這使得就AGI達(dá)成共識(shí)變得困難,因?yàn)樗笤谡?、社?huì)和倫理優(yōu)先事項(xiàng)上取得一致。類似的分歧也影響到相關(guān)概念,如AI(Cave,2020;Blili-Hamelin & Hancox-Li,2023)、“人類水平AI”、“超級(jí)智能”和“強(qiáng)AI”,從而強(qiáng)化了“共識(shí)錯(cuò)覺”陷阱(見第2.1節(jié))。

2.4 目標(biāo)彩票(Goal Lottery)

當(dāng)激勵(lì)、環(huán)境或運(yùn)氣推動(dòng)了那些在科學(xué)、工程或社會(huì)價(jià)值上缺乏充分依據(jù)的目標(biāo)被采納時(shí),便陷入了“目標(biāo)彩票”陷阱。

研究人員已探討了社會(huì)經(jīng)濟(jì)因素、潮流和偶然因素在塑造人工智能研究中的作用。例如,Hooker(2021)指出,某種“硬件彩票”——即并行處理能力更強(qiáng)的硬件更易獲得——是2010年代深度學(xué)習(xí)復(fù)興的關(guān)鍵因素。類似地,學(xué)者們也研究了激勵(lì)機(jī)制、社會(huì)經(jīng)濟(jì)因素和炒作周期在人工智能研究中的影響(Narayanan & Kapoor, 2024;Wang 等, 2024;Hicks 等, 2024;Gebru & Torres, 2024;Sartori & Bocca, 2023;Delgado 等, 2023;Raji 等, 2022;Widder & Nafus, 2023)。本陷阱關(guān)注的是,由于“彩票”(即運(yùn)氣)或激勵(lì)機(jī)制而推動(dòng)采納了不合理的目標(biāo)——即那些在科學(xué)、工程或社會(huì)價(jià)值上缺乏充分支持的目標(biāo)。

例如,一些將經(jīng)濟(jì)價(jià)值置于中心的AGI定義,如OpenAI強(qiáng)調(diào)“在大多數(shù)具有經(jīng)濟(jì)價(jià)值的工作上超越人類”(OpenAI, 2018)。從工程和社會(huì)角度來看,將經(jīng)濟(jì)價(jià)值作為設(shè)定人工智能研究目標(biāo)的首要標(biāo)準(zhǔn)是存在爭(zhēng)議的。這類定義通過將復(fù)雜的社會(huì)、工程和科學(xué)考量簡(jiǎn)化為純粹的經(jīng)濟(jì)指標(biāo),造成了激勵(lì)與合理性的錯(cuò)位。

另一個(gè)例子是“基準(zhǔn)SOTA追逐”——即追求在流行基準(zhǔn)測(cè)試上取得最高分(Bender 等, 2021;Church & Kordoni, 2022;Hullman 等, 2022;Raji 等, 2021)。盡管這種做法受到強(qiáng)烈的職業(yè)激勵(lì)推動(dòng),卻缺乏工程、科學(xué)和社會(huì)層面的正當(dāng)性。由于數(shù)據(jù)泄露、對(duì)基準(zhǔn)的過擬合以及數(shù)據(jù)異質(zhì)性等問題,基準(zhǔn)測(cè)試難以真實(shí)反映模型在實(shí)際應(yīng)用場(chǎng)景中的表現(xiàn)(Balloccu 等, 2024;Xu 等, 2024;Zhang 等, 2024;El-Mhamdi 等, 2022;Hanneke & Kpotufe, 2022;El-Mhamdi 等, 2021)。簡(jiǎn)言之,這種測(cè)量方法缺乏外部效度。然而,由于聲譽(yù)和經(jīng)濟(jì)回報(bào)的驅(qū)動(dòng),這種做法依然持續(xù),顯示出被激勵(lì)的目標(biāo)與其實(shí)際價(jià)值之間的錯(cuò)位。

“目標(biāo)彩票”的動(dòng)態(tài)也體現(xiàn)在深度學(xué)習(xí)架構(gòu)被忽視數(shù)十年的歷史中。當(dāng)時(shí),一項(xiàng)研究議程因最終被證明在工程、科學(xué)或社會(huì)層面站不住腳的理由而被邊緣化(例如,由于對(duì)不那么流行的研究方向存在“把關(guān)”效應(yīng);參見Siler 等, 2015)。與此同時(shí),人工智能產(chǎn)業(yè)全力投入專家系統(tǒng)“泡沫”(Haigh, 2024)。當(dāng)前人工智能研究中多樣性的減少,可能是類似錯(cuò)誤正在重演的跡象(見第2.6節(jié))。一些最近旨在對(duì)抗同質(zhì)化的舉措(Chollet 等, 2024)依賴于通過基準(zhǔn)測(cè)試來操作化AGI。但在實(shí)踐中,它們最終又變成了另一個(gè)基準(zhǔn):在強(qiáng)烈媒體和營(yíng)銷關(guān)注的助推下,進(jìn)一步激勵(lì)了SOTA追逐(Jones, 2025)。因此,我們對(duì)ARC等方法(Chollet, 2019)是否能抵消新聞周期加速的SOTA追逐所帶來的負(fù)面影響,仍持一定程度的懷疑態(tài)度。

2.5 通用性債務(wù)(Generality Debt)

依賴工具的“通用性”或“靈活性”來推遲對(duì)關(guān)鍵的工程、科學(xué)或社會(huì)決策的必要考量。

關(guān)于AGI的定義,在“通用性”應(yīng)達(dá)到何種程度的問題上存在分歧(Blili-Hamelin 等,2024)。這表明人工智能研究的目標(biāo)缺乏清晰性和共識(shí),從而形成了一種陷阱:(a)助長(zhǎng)了次優(yōu)的科學(xué)/工程實(shí)踐(與2.2節(jié)所述觀點(diǎn)相關(guān));(b)壓制了關(guān)于哪些研究方向值得追求的重要社會(huì)/倫理問題。我們將這種陷阱稱為“通用性債務(wù)”,類比于“技術(shù)債務(wù)”(Sculley 等,2014):它推遲了人工智能研究中本應(yīng)完成的工作,而如果這些工作被長(zhǎng)期擱置,未來將需要付出更大的代價(jià)來彌補(bǔ)。

這一陷阱包括在機(jī)器學(xué)習(xí)中對(duì)多種“通用性”概念的依賴:(1)任務(wù)的多樣性(Hernandez-Orallo & O’hEigeartiagh, 2018);(2)能夠被訓(xùn)練以應(yīng)對(duì)“任何任務(wù)” vs. 能夠執(zhí)行許多預(yù)定義任務(wù)的能力(Hernandez-Orallo & O’hEigeartiagh, 2018);(3)模型所評(píng)估的任務(wù)或數(shù)據(jù)分布是“已見”還是“未見”(即在訓(xùn)練階段是否對(duì)模型可用)(Altmeyer 等,2024);(4)模型輸入/輸出數(shù)據(jù)的多樣性,如結(jié)構(gòu)化與非結(jié)構(gòu)化、模態(tài)等;(5)模型性能是否體現(xiàn)了“令人類感到意外的表現(xiàn)”(Altmeyer 等,2024);(6)目標(biāo)的多樣性;(7)能夠“接受一種通用語言來表述問題”(Newell & Ernst, 1965);(8)擁有“通用”的內(nèi)部表征(Newell & Ernst, 1965;McCarthy & Hayes, 1981)。

正如 Paolo 等(2024)所指出的,盡管“通用性”有多種可能含義,但大多數(shù)論文即使在其論證中處于核心地位,也并未定義“通用性”。缺乏正式定義使得評(píng)估或改進(jìn)泛化能力變得困難。在承認(rèn)“通用性”定義不清的同時(shí),仍假設(shè)其是可取的,這是一種誤導(dǎo)。我們應(yīng)首先定義具體、可測(cè)量的屬性,然后再論證其價(jià)值。

在沒有明確定義的情況下,通用性的價(jià)值依然模糊不清。不同類型的通用性支持不同的未來愿景,這引發(fā)了關(guān)于其相對(duì)重要性的未被探討的問題。對(duì)“通用性”的模糊定義會(huì)導(dǎo)致不良的科學(xué)和工程實(shí)踐(見第2.2節(jié))。例如,Altmeyer 等(2024)指出,對(duì)通用性的追求導(dǎo)致了任務(wù)描述的模糊化。與此同時(shí),Gebru & Torres(2024)認(rèn)為,某些AGI概念違背了良好的工程實(shí)踐:如果一個(gè)系統(tǒng)被宣傳為“在任何環(huán)境中學(xué)習(xí)和行動(dòng)的通用算法”,那么很難在“標(biāo)準(zhǔn)操作條件”下測(cè)試其功能。

追求某種形式的通用性,也可能意味著要以犧牲生態(tài)效度為代價(jià),Saxon 等(2024)提出了這一觀點(diǎn)。他們認(rèn)為,“整體性”基準(zhǔn)在實(shí)踐中往往是一系列互不相關(guān)的具體任務(wù)的集合,這意味著它們?cè)谌蝿?wù)層面具有建構(gòu)效度。然而,這些任務(wù)并不總是與用戶真正關(guān)心的能力相匹配。

最后,“通用性”的模糊性也是一個(gè)倫理問題,因?yàn)樗乇芰岁P(guān)于哪些類型的通用性值得追求的規(guī)范性問題,并掩蓋了在優(yōu)先發(fā)展不同研究方向時(shí)所做出的隱性決策。

2.6 規(guī)范化排斥(Normalized Exclusion)

將某些群體和專家排除在人工智能研究目標(biāo)的制定過程之外,會(huì)限制創(chuàng)新且具有影響力的思想的發(fā)展。

排斥現(xiàn)象在人工智能領(lǐng)域的負(fù)面影響已被廣泛討論,不僅體現(xiàn)在其對(duì)產(chǎn)品質(zhì)量和模型性能的影響上(例如 Obermeyer 等,2019),也體現(xiàn)在對(duì)人群造成的傷害上(例如 Buolamwini & Gebru,2018;Shelby 等,2023;Whitney & Norman,2024)。我們認(rèn)為,關(guān)于通用人工智能(AGI)的討論加劇了排斥問題。

問題1:排除社群。許多社群被排除在人工智能研究目標(biāo)制定的實(shí)質(zhì)性參與之外(Delgado 等,2023)。排除社群會(huì)造成嚴(yán)重傷害,尤其對(duì)邊緣化群體而言(Pierre 等,2021)。它還會(huì)削弱最終產(chǎn)品的實(shí)用性,降低模型性能,并阻礙創(chuàng)新(例如 Burt,2004)。例如,谷歌、蘋果和Meta等公司的人臉識(shí)別系統(tǒng)曾將黑人誤認(rèn)為大猩猩這一臭名昭著的問題,自首次被發(fā)現(xiàn)八年后仍時(shí)有發(fā)生(Grant & Hill,2023;Appelman,2023),并對(duì)監(jiān)控和執(zhí)法產(chǎn)生下游影響(Jones,2020;Pour,2023)。類似地,數(shù)據(jù)標(biāo)注中的選擇性納入也引發(fā)了關(guān)于下游影響的倫理和實(shí)踐問題(Wang 等,2022;Bertelsen 等,2024)。其他關(guān)于社群排斥或納入影響性能的案例,參見(Buolamwini & Gebru,2018;Young 等,2019;Raji 等,2020;Andrews 等,2024;Salavati 等,2024;Bergman 等,2024;Weidinger 等,2024)。排除社群的實(shí)質(zhì)性反饋,也會(huì)削弱社會(huì)目標(biāo)的實(shí)現(xiàn),例如通過向受影響社群負(fù)責(zé)來促進(jìn)集體合法性(Birhane 等,2022a;Young 等,2024;Costanza-Chock,2020;Mikesell 等,2013;Schulz 等,2002)。

近年來AGI討論的突出地位加劇了人工智能研究中已有的社群排斥問題(Kelly,2024;Frank 等,2017)。許多AGI支持者設(shè)想一個(gè)未來,即AI系統(tǒng)能為無數(shù)社群執(zhí)行極其廣泛的任務(wù)。然而,研究與設(shè)計(jì)過程卻未能達(dá)到這一宏偉愿景所要求的包容性。例如,2024年12月的報(bào)道指出,OpenAI與微軟“去年簽署協(xié)議,規(guī)定只有當(dāng)OpenAI開發(fā)出能創(chuàng)造至少1000億美元利潤(rùn)的AI系統(tǒng)時(shí),才算實(shí)現(xiàn)AGI”(Maxwell Zeff;OpenAI),這與OpenAI公開的AGI定義(OpenAI,2018)大相徑庭。多位學(xué)者指出,經(jīng)濟(jì)價(jià)值并非唯一值得追求的價(jià)值類型(Morris 等,2023;Pierson 等,2025;Dulka,2022;Harrigian 等,2023;Agrawal 等,2022)。這種經(jīng)濟(jì)導(dǎo)向有助于指導(dǎo)OpenAI的工程決策,但強(qiáng)調(diào)利潤(rùn)是否能帶來最有益或最有用的最終產(chǎn)品,或是否能就目標(biāo)達(dá)成有意義的共識(shí),尤其是對(duì)邊緣化群體而言,是值得懷疑的。

問題2:排除學(xué)科。從應(yīng)用領(lǐng)域(如醫(yī)學(xué)(Obermeyer 等,2019)、金融(Cao,2022)、網(wǎng)絡(luò)安全(Salem 等,2024)、學(xué)習(xí)(Leong & Linzen,2024))到構(gòu)建AI所涉及的實(shí)踐——數(shù)據(jù)標(biāo)注、定性與定量方法、領(lǐng)域?qū)I(yè)知識(shí)、計(jì)算機(jī)科學(xué)等眾多方面(Wang 等,2022;Bertelsen 等,2024;Widder,2024)——人工智能研究跨越了學(xué)科邊界。人工智能研究的跨學(xué)科挑戰(zhàn)與其他學(xué)科所面臨的挑戰(zhàn)相似(Stirling,2014;Amoo 等,2020;Stokols 等,2003;Vestal & Mesmer-Magnus,2020;英國(guó)皇家學(xué)會(huì) & Leontidis,2024)。

其中一個(gè)主要挑戰(zhàn)是學(xué)科壁壘,即知識(shí)在不同學(xué)科之間未能充分共享(Ballantyne,2019;DiPaolo,2022;英國(guó)皇家學(xué)會(huì) & Leontidis,2024;Stirling,2014;Amoo 等,2020;Stokols 等,2003)。例如,知識(shí)共享的缺乏可能是導(dǎo)致機(jī)器學(xué)習(xí)領(lǐng)域?qū)忉屝匝芯颗c探索性研究的區(qū)分關(guān)注不足的部分原因(見第2.2節(jié),Herrmann 等,2024)。

另一挑戰(zhàn)是知識(shí)等級(jí)制度——某些學(xué)科的專業(yè)知識(shí)被明確或隱性地貶低(Knorr Cetina,1999;2007;Fourcade 等,2015;Simonton,2004)。這可能表現(xiàn)為專家群體僅被允許提供狹隘的意見,而無法參與更廣泛的研究設(shè)計(jì)決策(Bertelsen 等,2024)。

人工智能研究者專注于將其工作應(yīng)用于其他領(lǐng)域,也帶來了另一重大挑戰(zhàn)。領(lǐng)域知識(shí)的不足可能影響AI工具的功能——即它們是否能如宣傳的那樣運(yùn)作(Raji 等,2022)。例如,AI工具被用于對(duì)人類個(gè)體的未來結(jié)果進(jìn)行預(yù)測(cè),從審前風(fēng)險(xiǎn)評(píng)估、預(yù)測(cè)性警務(wù)到自動(dòng)化就業(yè)決策(Wang 等,2024)。然而,盡管有效性證據(jù)不足,預(yù)測(cè)工具仍常常被構(gòu)建、營(yíng)銷和部署(Connealy 等,2024;Doucette 等,2021;Cameron,2023)。

由于以下兩個(gè)因素,學(xué)科壁壘問題在以AGI為導(dǎo)向的研究中尤為突出:其一是聲稱要?jiǎng)?chuàng)造人類智能的對(duì)應(yīng)物或替代品,其二是聲稱在眾多學(xué)科中具備專業(yè)能力。在前一種情況下,相關(guān)主張往往忽視了認(rèn)知科學(xué)和心理學(xué)領(lǐng)域關(guān)于智能本質(zhì)的長(zhǎng)期爭(zhēng)論(Mitchell,2024;Guest & Martin,2024;Van Rooij 等,2024;Summerfield,2023)。在后一種情況下,實(shí)現(xiàn)AGI常被描述為能夠“替代”各個(gè)領(lǐng)域的專家——而媒體在缺乏領(lǐng)域?qū)<覅⑴c的情況下,常常不加批判地采納這些說法(例如,Henshall,2024)。

問題3:資源不平等。近年來,我們見證了訓(xùn)練機(jī)器學(xué)習(xí)模型所需的計(jì)算資源以前所未有的速度增長(zhǎng),需求大約每幾個(gè)月就翻一番(Sevilla 等,2022)。這一趨勢(shì)加劇了現(xiàn)有的資源不平等,因?yàn)樽钋把氐娜斯ぶ悄苎芯客蕾囉跇O少數(shù)研究者才能獲得的計(jì)算資源(Yu 等,2023;LaForge,2024)。這些資源的高昂成本將大量參與者排除在人工智能研究之外。即使是頂尖研究型大學(xué),其擁有的計(jì)算資源也僅是許多公司用于推進(jìn)AI研究的資源的一小部分。

目前已有努力通過支持政府機(jī)構(gòu)維護(hù)的大規(guī)模計(jì)算資源的獲取來應(yīng)對(duì)這種資源不平等(例如美國(guó)的NAIRR)。然而,資源平等仍是一個(gè)理想目標(biāo),因?yàn)槿藗兤毡檎J(rèn)識(shí)到,由于工業(yè)界在計(jì)算資源上的規(guī)模優(yōu)勢(shì),產(chǎn)業(yè)界的研究者在設(shè)定人工智能研究目標(biāo)方面實(shí)際上享有優(yōu)勢(shì)。這種結(jié)構(gòu)性優(yōu)勢(shì)還因使用預(yù)印本檔案(pre-print archives)在未經(jīng)同行評(píng)審的情況下公開AI研究成果而得到強(qiáng)化(Devlin 等,2019;Vaswani 等,2023;Rombach 等,2022;OpenAI 等,2024;Bubeck 等,2023),這一策略在未應(yīng)用傳統(tǒng)科學(xué)誠(chéng)信標(biāo)準(zhǔn)的情況下,將這些工作合法化為“科學(xué)”性質(zhì)(Tenopir 等,2016;Lin 等,2020;Soderberg 等,2020;Kwon & Porter,2025;Rastogi 等,2022)。

盡管資源不平等存在于所有形式的人工智能研究中,但當(dāng)AGI被作為學(xué)科的“北極星”目標(biāo)時(shí),這種不平等尤為突出,因?yàn)楫?dāng)前的AGI努力主要集中在純粹的計(jì)算規(guī)模上,且這些努力高度集中于大型科技公司。權(quán)力的集中使得相關(guān)努力更應(yīng)包含而非排斥相關(guān)的社群和專家。AGI的討論加速了人工智能領(lǐng)域現(xiàn)有的趨勢(shì):即貶低領(lǐng)域?qū)I(yè)知識(shí)和真實(shí)生活經(jīng)驗(yàn),轉(zhuǎn)而推崇那些號(hào)稱“無所不知”的模型。

  1. 建議

我們認(rèn)為,關(guān)于通用人工智能(AGI)的討論阻礙了在人工智能發(fā)展中設(shè)定具有充分依據(jù)的科學(xué)與工程目標(biāo),同時(shí)對(duì)具有社會(huì)價(jià)值的人工智能發(fā)展具有破壞性。為此,我們提出三項(xiàng)建議,以避免陷入上述陷阱。

建議1:目標(biāo)明確性。人工智能界在討論人工智能的科學(xué)、工程和社會(huì)目標(biāo)時(shí),必須優(yōu)先使用高度明確的語言。

對(duì)可實(shí)現(xiàn)的科學(xué)、工程和社會(huì)目標(biāo)做出更具體的定義,有助于各方對(duì)這些目標(biāo)形成共同理解,從而能夠評(píng)估這些目標(biāo)是否具有充分的合理性。缺乏這種明確性時(shí),研究人員、實(shí)踐者及其他相關(guān)人員可能對(duì)某一目標(biāo)及其實(shí)現(xiàn)方式產(chǎn)生不同的理解。這種分歧為人工智能研究者和實(shí)踐者提供了“概念套利”的空間——他們借此推進(jìn)自身目標(biāo),因?yàn)樗麄冏罱K決定著模型開發(fā)與實(shí)施的具體細(xì)節(jié)。而技術(shù)開發(fā)外部的人士可能誤以為某個(gè)系統(tǒng)實(shí)現(xiàn)了某一目標(biāo),但實(shí)際上并未實(shí)現(xiàn)。

該建議針對(duì)“共識(shí)錯(cuò)覺”陷阱(第2.1節(jié)),強(qiáng)調(diào)概念清晰性是目標(biāo)設(shè)定過程中不可或缺的一部分。明確性還有助于避免“目標(biāo)彩票”陷阱(第2.4節(jié)),使目標(biāo)選擇過程更加透明。它同樣有助于應(yīng)對(duì)“假定價(jià)值中立”陷阱(第2.3節(jié)),通過明確揭示特定目標(biāo)所關(guān)聯(lián)的價(jià)值觀,并直接減少“通用性債務(wù)”(第2.5節(jié))。最后,目標(biāo)明確性也有助于解決“加劇不良科學(xué)”陷阱(第2.2節(jié))中所強(qiáng)調(diào)的定義不足問題。

建議2:目標(biāo)與方法的多元化。人工智能界不應(yīng)追求單一的、普適的“北極星”目標(biāo)(或少數(shù)幾個(gè)目標(biāo)),而應(yīng)明確提出眾多有價(jià)值的科學(xué)、工程和社會(huì)目標(biāo),并探索實(shí)現(xiàn)這些目標(biāo)的多種可能路徑。

對(duì)于人工智能這樣廣泛而復(fù)雜的領(lǐng)域,要在其研究目標(biāo)上達(dá)成有意義的科學(xué)與社會(huì)共識(shí)是困難的。當(dāng)共識(shí)不可行或不必要時(shí),我們建議采取多元化(pluralism)策略:允許多種關(guān)于人工智能研究目標(biāo)的合理構(gòu)想共存。在一個(gè)由持有不同價(jià)值觀的個(gè)人和機(jī)構(gòu)組成的社會(huì)中,多元化是有益的。研究群體默認(rèn)應(yīng)保持目標(biāo)和實(shí)現(xiàn)路徑的多樣性,追求異質(zhì)性而非同質(zhì)性(Sorensen 等,2024a;b)。

在實(shí)踐中,多元化可以體現(xiàn)在資源在不同研究路徑之間的分配方式上。例如,與其將大部分計(jì)算資源集中用于追求AGI,不如將資源更均衡地分配給人工智能領(lǐng)域內(nèi)多樣化的研究目標(biāo)和方法。研究群體知識(shí)生產(chǎn)與問題解決動(dòng)態(tài)的學(xué)者發(fā)現(xiàn),多元化具有顯著優(yōu)勢(shì)(Hong & Page, 2004; Muldoon, 2013),尤其是平等型群體協(xié)作所帶來的獨(dú)特益處(Xu 等,2022)。類似地,研究者也發(fā)現(xiàn)方法論的多樣性有助于推動(dòng)知識(shí)進(jìn)步(Midgley, 2000; Veit, 2020; Zhu, 2022)。

多元化策略有助于應(yīng)對(duì)“共識(shí)錯(cuò)覺”陷阱(第2.1節(jié)),因?yàn)樗姓J(rèn)共識(shí)的缺失,并將多元視角作為推動(dòng)科學(xué)與社會(huì)進(jìn)步的工具;有助于避免“目標(biāo)彩票”陷阱(第2.4節(jié)),減少某些目標(biāo)被隨意或過早排除的可能性;同時(shí)也有助于應(yīng)對(duì)“排斥”陷阱(第2.6節(jié)),通過鼓勵(lì)目標(biāo)和方法的多樣性來促進(jìn)包容。

建議3:在目標(biāo)設(shè)定中加強(qiáng)包容性。在塑造人工智能研究目標(biāo)的過程中,更廣泛地納入不同社群和學(xué)科的參與,將有利于創(chuàng)新。

包容性有助于推動(dòng)創(chuàng)新(Zhang 等,2021;Xu 等,2022;Burt,2004;Hewlett 等,2013)。識(shí)別有價(jià)值的目標(biāo)、相關(guān)應(yīng)用場(chǎng)景以及潛在的意外后果,依賴于匯集多樣化的觀點(diǎn)。在人工智能研究中,這些觀點(diǎn)必須包括最終用戶、其他領(lǐng)域的專家、受研究成果影響的群體以及數(shù)據(jù)標(biāo)注人員。排除其中任何一方,都會(huì)削弱人工智能實(shí)現(xiàn)有價(jià)值目標(biāo)的潛力,因?yàn)檫@忽視了定義這些目標(biāo)“為何有價(jià)值”的關(guān)鍵視角。而納入這些群體,則能豐富人工智能研究。

不同學(xué)科之間的思想交叉融合能夠產(chǎn)生更具影響力的研究成果(Shi & Evans, 2023; Dori-Hacohen 等,2021)。要實(shí)現(xiàn)這種影響力,我們必須打破知識(shí)的壁壘(例如“認(rèn)識(shí)論文化”:Knorr Cetina, 1999; 2007),并摒棄貶低非計(jì)算類研究的知識(shí)等級(jí)制度(Fourcade 等,2015; Simonton, 2004)。盡管技術(shù)復(fù)雜性可能使非專家的參與變得困難(Pierre 等,2021),但克服這些挑戰(zhàn)有助于揭示專家未曾預(yù)料的問題(Cooper 等,2022),并通過將非專家或其他領(lǐng)域?qū)<业亩匆娕c經(jīng)驗(yàn)融入系統(tǒng)設(shè)計(jì)決策,實(shí)現(xiàn)切實(shí)的科學(xué)貢獻(xiàn)(Delgado 等,2023;Salavati 等,2024)。

作為一個(gè)議題,AGI常常涉及構(gòu)想將影響每個(gè)人生活的AI技術(shù)。因此,排斥特定群體會(huì)導(dǎo)致在塑造AI研究與部署的目標(biāo)、過程和參與者方面產(chǎn)生具有重大社會(huì)意義的分歧。這些分歧常常被擁有領(lǐng)域主導(dǎo)權(quán)的群體所忽視或無視。只有通過包容,才能確保技術(shù)決策對(duì)機(jī)構(gòu)、社群和個(gè)人而言具有充分的正當(dāng)性(Anderson, 2006; Binns, 2018; Alexandrova & Fabian, 2022; Birhane 等,2022a; Lazar, 2022; Ovadya, 2023)。

該建議通過將包容性視為創(chuàng)新的必要條件,直接應(yīng)對(duì)“規(guī)范化排斥”陷阱(第2.6節(jié))。此外,它還通過承認(rèn)人工智能研發(fā)中價(jià)值負(fù)載目標(biāo)所引發(fā)的重大社會(huì)分歧,并建設(shè)性地利用這些分歧,來應(yīng)對(duì)“共識(shí)錯(cuò)覺”和“假定價(jià)值中立”陷阱(第2.1節(jié)和第2.3節(jié))。

  1. 結(jié)論

我們認(rèn)為,將通用人工智能(AGI)作為指導(dǎo)人工智能研究的“北極星”目標(biāo)是一個(gè)糟糕的選擇。在本節(jié)中,我們通過反駁一種強(qiáng)有力的競(jìng)爭(zhēng)觀點(diǎn)來重申我們的立場(chǎng):即我們所指出的種種陷阱,可以通過對(duì)AGI追求方式的改進(jìn)加以克服。但我們認(rèn)為,即使對(duì)AGI的追求方式有所改進(jìn),也遠(yuǎn)遠(yuǎn)不足以解決問題。

4.1 競(jìng)爭(zhēng)觀點(diǎn)
“AGI是一個(gè)良好的‘北極星’目標(biāo);為避免上述陷阱,只需對(duì)AGI進(jìn)行更完善的定義和闡釋?!?/p>

確實(shí)存在一些深思熟慮的嘗試,旨在彌補(bǔ)現(xiàn)有AGI論述中的不足(Adams 等,2012;Chollet,2019;Morris 等,2023;Summerfield,2023)。如果以往對(duì)AGI的描述存在反效果或缺陷,為何不追求一種能夠修正這些缺陷的新版本呢?

以競(jìng)爭(zhēng)觀點(diǎn)為例,Morris 等(2023)通過厘清以往AGI論述中關(guān)于目標(biāo)、預(yù)測(cè)和風(fēng)險(xiǎn)的混淆,有效緩解了“共識(shí)錯(cuò)覺”陷阱。此外,他們提出的類比于“駕駛自動(dòng)化等級(jí)標(biāo)準(zhǔn)”(SAE International,2021)的實(shí)用策略,也可被視為減輕“假定價(jià)值中立”陷阱的一種方式。通過以明確聚焦特定風(fēng)險(xiǎn)的方式來制定全社會(huì)范圍的標(biāo)準(zhǔn),這些標(biāo)準(zhǔn)所體現(xiàn)的價(jià)值取向也就得以顯現(xiàn)。

像 Morris 等(2023)這樣的工作展示了應(yīng)對(duì)陷阱的潛在路徑。在我們指出AGI論述加劇了多個(gè)既有問題的同時(shí),我們也不排除存在某些努力可以在保留AGI作為目標(biāo)的前提下緩解這些問題。此外,鑒于關(guān)于如何定義AGI的分歧很可能持續(xù)存在(如 Morris 等,2023;Summerfield,2023)以及眾多其他學(xué)者所指出的那樣,我們更不可能聲稱自己對(duì)AGI所有可能概念的圖景有足夠全面的理解,從而做出決定性結(jié)論。

4.2 反駁:為何支持我們的立場(chǎng)?

理由一:與我們的建議相沖突。
首先,我們認(rèn)為目標(biāo)的具體性和目標(biāo)與方法的多元化,與上述競(jìng)爭(zhēng)觀點(diǎn)相矛盾。盡管AGI的定義極具爭(zhēng)議,但人們常將其作為“北極星”目標(biāo)的動(dòng)機(jī),正是渴望為整個(gè)領(lǐng)域提供一個(gè)單一的、大規(guī)模的、統(tǒng)一的愿景(Summerfield,2023)。這與我們提倡的多元化和具體化背道而馳。

理由二:區(qū)分炒作與現(xiàn)實(shí)。
另一個(gè)支持我們立場(chǎng)的原因是研究社群有責(zé)任幫助區(qū)分炒作與現(xiàn)實(shí)。我們認(rèn)為,人工智能研究社群必須找到一條路徑,以提供可信的、基于證據(jù)的回答,來應(yīng)對(duì)日益復(fù)雜的技術(shù)問題——包括人工智能技術(shù)本身、其目標(biāo)及其影響。而當(dāng)前,AGI這一高度炒作的術(shù)語往往削弱了這一目標(biāo)。

無論AGI被定義得多么嚴(yán)謹(jǐn)或粗糙,它已經(jīng)獲得了某種文化意義,這加劇了區(qū)分炒作與現(xiàn)實(shí)的難度?!爸悄堋焙汀巴ㄓ眯浴边@兩個(gè)詞承載著滿足無數(shù)需求和場(chǎng)景的承諾(見第2.3、2.5節(jié))。無論研究界如何謹(jǐn)慎,這些術(shù)語的文化聯(lián)想仍可能助長(zhǎng)關(guān)于人工智能的非科學(xué)思維。這使得各種利益相關(guān)方得以隨意地將烏托邦或反烏托邦的特征投射到AGI上,以此支持他們對(duì)更多權(quán)力和資源的訴求。

理由三:以造福人類作為技術(shù)的目標(biāo)。
我們擔(dān)心,關(guān)于人工智能統(tǒng)一目標(biāo)的宏大敘事容易模糊炒作與現(xiàn)實(shí)之間的界限。即使人工智能界仍希望追求一個(gè)總體目標(biāo),這一目標(biāo)也應(yīng)是支持和造福人類。技術(shù)的目標(biāo)是由人塑造的。評(píng)估技術(shù)是否真正滿足人類需求——無論是“用戶”、“消費(fèi)者”、“患者”、“學(xué)者”,還是各種商業(yè)與社會(huì)角色——已有成熟且基于證據(jù)的方法。

在追求AGI的過程中,社群往往忽視了“滿足人類需求”這一根本目標(biāo),轉(zhuǎn)而只關(guān)注技術(shù)本身。

還有一個(gè)更宏大的理由支持我們將“支持和造福人類”作為共識(shí)目標(biāo)。我們?cè)诘谌龡l建議中已指出,關(guān)于技術(shù)目標(biāo)的重大社會(huì)分歧具有重要意義。建立確保技術(shù)真正造福人類的機(jī)制,有可能為這些分歧提供具有集體合法性的回應(yīng)。這可以通過體現(xiàn)民主理念的流程實(shí)現(xiàn):例如,在關(guān)于“公共利益”和“共同福祉”的質(zhì)詢、協(xié)商與異議過程中實(shí)現(xiàn)普遍包容,并將參與者視為“權(quán)利主體”,建立強(qiáng)有力的問責(zé)機(jī)制(Anderson,2006;Putnam,2011;Binns,2018;Gabriel,2020;Birhane 等,2022a;Lazar & Nelson,2023;Ovadya,2023;Blili-Hamelin 等,2024)。追求集體合法性,本質(zhì)上要求達(dá)成在政治和社會(huì)層面有效的共識(shí)。

總之,我們呼吁各社群停止將“AGI”視為人工智能研究的“北極星”目標(biāo)。

原文鏈接:https://arxiv.org/pdf/2502.03689v1

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
交警再次提醒:誤闖紅燈后只需一個(gè)動(dòng)作,可以從扣6分變成只扣1分

交警再次提醒:誤闖紅燈后只需一個(gè)動(dòng)作,可以從扣6分變成只扣1分

老特有話說
2025-12-03 23:00:01
荒誕!楊蘭蘭拒絕認(rèn)罪,場(chǎng)外竟有“超級(jí)粉絲”高喊支持楊小姐

荒誕!楊蘭蘭拒絕認(rèn)罪,場(chǎng)外竟有“超級(jí)粉絲”高喊支持楊小姐

吃瓜局
2025-11-15 15:56:23
二炮文工團(tuán)女高音透露:李雙江聲帶老化!昔日金嗓難再現(xiàn)輝煌

二炮文工團(tuán)女高音透露:李雙江聲帶老化!昔日金嗓難再現(xiàn)輝煌

小欣欣聊體育
2025-12-09 15:20:58
魔獸時(shí)光服:狂暴戰(zhàn)加強(qiáng)超10%,潛行者成單體之王,部落天賦調(diào)整

魔獸時(shí)光服:狂暴戰(zhàn)加強(qiáng)超10%,潛行者成單體之王,部落天賦調(diào)整

胖哥游戲說
2025-12-10 13:30:54
袁某人是怎么發(fā)跡的?

袁某人是怎么發(fā)跡的?

斜杠歷史
2024-04-14 00:00:03
封關(guān)后,海南炸鍋了。有房子的外地人、當(dāng)?shù)赝林紭烽_了花!

封關(guān)后,海南炸鍋了。有房子的外地人、當(dāng)?shù)赝林紭烽_了花!

石辰搞笑日常
2025-12-03 08:50:12
西伯利亞-63℃小賣部:全村約900人,蘋果30塊1個(gè),1斤牛肉10多元

西伯利亞-63℃小賣部:全村約900人,蘋果30塊1個(gè),1斤牛肉10多元

禾寒?dāng)?/span>
2025-10-30 23:07:12
許國(guó)利殺妻案如今已經(jīng)過去5年,整棟樓還是無人住,為何?

許國(guó)利殺妻案如今已經(jīng)過去5年,整棟樓還是無人住,為何?

阿鄖田間生活
2025-12-03 19:11:23
聶遠(yuǎn)女兒《風(fēng)與潮》獲贊!都是星二代,為何濮存昕外孫女卻遭罵

聶遠(yuǎn)女兒《風(fēng)與潮》獲贊!都是星二代,為何濮存昕外孫女卻遭罵

露珠聊影視
2025-12-10 14:39:41
9分神劇《浴血黑幫》歸來,電影版定檔!謝爾比滿臉血,暗示結(jié)局

9分神劇《浴血黑幫》歸來,電影版定檔!謝爾比滿臉血,暗示結(jié)局

頭號(hào)電影院
2025-12-09 14:27:29
小酒窩曬17張與明星合影,成尖叫之夜團(tuán)寵,被贊內(nèi)娛追星天花板

小酒窩曬17張與明星合影,成尖叫之夜團(tuán)寵,被贊內(nèi)娛追星天花板

興史興談
2025-12-09 15:20:02
全體退休人員,12月養(yǎng)老金到賬后,千萬別急著花!先做這3件事

全體退休人員,12月養(yǎng)老金到賬后,千萬別急著花!先做這3件事

李博世財(cái)經(jīng)
2025-12-08 10:49:40
諜戰(zhàn)劇又有一部王炸!陣容強(qiáng)大到不行,才播2集就沖到收視第2

諜戰(zhàn)劇又有一部王炸!陣容強(qiáng)大到不行,才播2集就沖到收視第2

樂楓電影
2025-12-10 14:54:13
虛云禪師為老蔣占卜,卻拒毛主席邀約,圓寂前留下一字令主席釋然

虛云禪師為老蔣占卜,卻拒毛主席邀約,圓寂前留下一字令主席釋然

史之銘
2025-12-04 20:35:27
7-0,冬奧會(huì)冰壺落選賽首支晉級(jí)隊(duì)出爐,中國(guó)隊(duì)最后一輪會(huì)放水嗎?

7-0,冬奧會(huì)冰壺落選賽首支晉級(jí)隊(duì)出爐,中國(guó)隊(duì)最后一輪會(huì)放水嗎?

籃球看比賽
2025-12-10 10:42:42
澤連斯基:烏克蘭已準(zhǔn)備好舉行選舉,可在未來60至90天內(nèi)舉行

澤連斯基:烏克蘭已準(zhǔn)備好舉行選舉,可在未來60至90天內(nèi)舉行

財(cái)聯(lián)社
2025-12-10 04:49:15
河南鄭州這件事,還有更深的諷刺!

河南鄭州這件事,還有更深的諷刺!

胖胖說他不胖
2025-12-10 10:00:09
沖擊頂峰,25℃!馬上下雨,-4℃!大降溫過后,浙江還要沖擊20℃!

沖擊頂峰,25℃!馬上下雨,-4℃!大降溫過后,浙江還要沖擊20℃!

浙江天氣
2025-12-10 11:10:40
澤連斯基稱烏已準(zhǔn)備好舉行選舉

澤連斯基稱烏已準(zhǔn)備好舉行選舉

財(cái)聯(lián)社
2025-12-10 03:28:32
頂級(jí)美人和普通美人的區(qū)別,看央視《大生意人》5位女演員就懂了

頂級(jí)美人和普通美人的區(qū)別,看央視《大生意人》5位女演員就懂了

陳述影視
2025-12-09 21:51:09
2025-12-10 16:16:49
CreateAMind incentive-icons
CreateAMind
CreateAMind.agi.top
1052文章數(shù) 17關(guān)注度
往期回顧 全部

科技要聞

8周生死時(shí)速,全員保日活!

頭條要聞

26歲研究員任浙大博導(dǎo) 校方:程序規(guī)范 接受社會(huì)監(jiān)督

頭條要聞

26歲研究員任浙大博導(dǎo) 校方:程序規(guī)范 接受社會(huì)監(jiān)督

體育要聞

試訓(xùn)20支球隊(duì),落選,成為NBA新秀助攻王

娛樂要聞

孫儷扛住死亡鏡頭 網(wǎng)友:嬛嬛回來了

財(cái)經(jīng)要聞

白銀史上首次站上60美元

汽車要聞

零百2.5s 純電保時(shí)捷Cayenne Turbo新車圖解

態(tài)度原創(chuàng)

藝術(shù)
旅游
家居
健康
數(shù)碼

藝術(shù)要聞

40張海邊撒野照片,真是太有創(chuàng)意了!

旅游要聞

阿聯(lián)酋阿萊因被選為2026年阿拉伯旅游之都

家居要聞

高端私宅 理想隱居圣地

甲狀腺結(jié)節(jié)到這個(gè)程度,該穿刺了!

數(shù)碼要聞

致態(tài)小翼S001 SSD評(píng)測(cè):SATA接口性能極限 附帶軟件一鍵遷移系統(tǒng)

無障礙瀏覽 進(jìn)入關(guān)懷版 caoprom人人操人人操人人| 国产精品福利迷奸系| YW尤物AV无码点击进入影院| 国产粉嫩嫩00在线正在播放| 制服 丝袜 人妻 专区一本| 国精无码欧精品亚洲一区久久| 亚洲中文字幕综合网在线| 搡老熟女25P| 美国午夜精品无码电影| av在线天堂av无码舔b| 99久久精品毛片免费播放高潮| 色噜噜噜噜噜噜| 国产成人喷潮在线观看| 亚洲成人手机在线| 国产乱码卡二卡三卡老狼| 亚洲最大成人在线播放| 偷偷好色偷偷要色| 香港日本三级亚洲三级| 精品亚洲国产成人av在线| 97在线 | 日韩| 看黄色00P00兽交视频国产的免费看| 国产免费网址| 婷婷久草六月丁香| 国产成人精品日本亚洲11| 国产免费一区二区三区vr| 免费在线看黄色| 蜜桃av.com在线观看| 91中文字幕一区在线| 日韩精品一区二区三区色欲av| 亚洲AV无码久久精品国产老人| 91麻豆传传媒波多野衣久久 | 亚洲一区二区三区 无码| 色欲香天天天综合网站小说| 国产一二三精品| 午夜tv视频免费国产区4| 观看在线人视频| av无码制服丝袜国产日韩| 狠狠色噜噜狠狠狠777米奇| 天堂国产一区二区三区| 极品XXXX欧美一区二区冒泡 | 91九色国产成人久久精品|