IPP評論是國家高端智庫華南理工大學(xué)公共政策研究院(IPP)官方微信平臺。
導(dǎo)語:
從最初技術(shù)主導(dǎo)社會結(jié)構(gòu)性變革的樂觀態(tài)度,到如今對就業(yè)替代、算法偏見、數(shù)據(jù)主權(quán)和技術(shù)壟斷等問題的持續(xù)焦慮;從“加速主義”的理想主義,到“奇點理論”引發(fā)的廣泛恐懼——人工智能在推動超人類智能創(chuàng)造的過程中,是否也在悄然破壞和重塑社會結(jié)構(gòu)、催生新的分層與不公?AI技術(shù)加速失衡的當(dāng)下,一條多邊協(xié)作、普惠包容的均衡治理道路是否存在?
IPP特約研究員、廣州市社會科學(xué)院城市治理研究所副所長孫占卿認(rèn)為,在人工智能等顛覆性技術(shù)的推動下,“加速主義”的基調(diào)已經(jīng)出現(xiàn)翻轉(zhuǎn),技術(shù)進(jìn)步帶來的技能替代風(fēng)險正加劇社會分層的恐懼。他指出,隨著技術(shù)滲透社會生活,技術(shù)規(guī)則通過“黑箱”操作發(fā)揮隱蔽的統(tǒng)治功能,主導(dǎo)倫理判斷和決策邏輯。加速主義的理想未能實現(xiàn),反而帶來了不平等和壟斷。他認(rèn)為,要實現(xiàn)技術(shù)的普惠,必須加強知識傳播和教育,推動技術(shù)民主化。同時,必須加強反壟斷,確保技術(shù)進(jìn)步的公平性和可持續(xù)性。
引言
人工智能(AI)的迅猛發(fā)展將“加速主義”與“奇點理論”推向碰撞前沿。這一交匯正引發(fā)廣泛的社會焦慮。
“加速主義”主張,通過不受約束的技術(shù)進(jìn)步加速社會變革;“奇點理論”則預(yù)言,技術(shù)將超越人類控制,形成不可預(yù)測的臨界點。然而,當(dāng)人工智能加速超出認(rèn)知邊界時,技術(shù)樂觀主義迅速轉(zhuǎn)為恐懼。
弗諾·文奇在《即將到來的技術(shù)奇點》中普及“奇點”這一概念,他預(yù)測奇點將于2005-2030年間發(fā)生,超人類智能將標(biāo)志人類時代的終結(jié)。文奇寫道:
“在接下來的三十年內(nèi),我們將擁有技術(shù)手段創(chuàng)造超人類智能。不久之后,人類時代將結(jié)束。”
事實上,“奇點”并不神秘,它指的是技術(shù)或歷史上的劇變臨界點。人類曾幻想無數(shù)此類“跳躍點”。例如,孟子描述的“五百年必有王者興”,佛教經(jīng)常提到的“佛滅后五百世”,以及基督教的“耶穌誕生”。更具體的,包括中國的推背圖和瑪雅預(yù)言的“2012”。世俗例子則有上世紀(jì)末的“千年蟲”。傳統(tǒng)上,這些時間軸遠(yuǎn)處的“點”往往寄托了人們浪漫主義的期待。生成式人工智能帶來的陡然加速,不但賦予“奇點”現(xiàn)實的技術(shù)支撐,而且正逐步播散想象的迷霧,露出“奇點”的冰山一角。
“加速主義”的反轉(zhuǎn):越過山丘,只是一片荒蕪
起源于20世紀(jì)70年代的“加速主義”經(jīng)歷了多個波段和浪潮,但無論在左派,還是右派眼中,“加速主義”都是積極昂揚的——“加速”釋放的不僅是技術(shù),也是人性的力量:1970年代的法國思想家們,期待著資本主義的加速可以解構(gòu)資本主義自身;1990年代的“加速主義”將技術(shù)視為通往“后人類”未來的引擎;斯尼塞克認(rèn)為技術(shù)加速可以為全人類賦權(quán),重塑一個公平的世界。換言之,加速即正義,將迎來解放和新生。
在人工智能等顛覆性技術(shù)推動下,“奇點”正加速到來,這一進(jìn)程與加速主義緊密交織,技術(shù)作為引擎加速人類歷史的轉(zhuǎn)折。人工智能的指數(shù)級進(jìn)步——從深度學(xué)習(xí)到通用人工智能(AGI)——符合庫茲韋爾的加速回報定律,計算能力每18個月翻倍,導(dǎo)致智能爆炸。
然而,今天“加速主義”的基調(diào)卻已翻轉(zhuǎn)。網(wǎng)絡(luò)上對此也充滿迷茫和恐慌。
第一,絕大多數(shù)人還沒有機會品嘗“解放”,就已經(jīng)面臨“解散”。各家權(quán)威機構(gòu)的報告都顯示,相比體力勞動者,量化分析師、律師、社科研究者、程序員等依賴專業(yè)知識的白領(lǐng)已經(jīng)率先被人工智能替代。事實上,體力勞動者也沒有樂觀的理由,畢竟人形機器人的普及也很快就要來到。
“奇點”背后是對人類重大分層的恐懼:普通人與智人。如文奇所述,超人類智能將終結(jié)人類時代,創(chuàng)造出“智人”精英階層,而普通人可能被邊緣化。人工智能帶來的技能替代風(fēng)險,在很多人眼中成了被拋棄的前兆——我們面臨著被文明拋棄的恐懼。
博斯特羅姆在《超級智能》中強調(diào),這種分層可能存在風(fēng)險,包括資源分配失衡和權(quán)力集中。人工智能技能替代進(jìn)一步放大了這一擔(dān)憂:自動化將取代勞動力密集職位,引發(fā)失業(yè)浪潮。
瑞典哲學(xué)家博斯特羅姆。圖源:Wikimedia Commons
第二,“加速”承諾的技術(shù)平權(quán)、人人解放,很可能變成寡頭壟斷。當(dāng)領(lǐng)先公司的人工智能產(chǎn)品以低成本甚至免費的形式提供給消費者、實現(xiàn)“民主化訪問”時,創(chuàng)造了一種普遍性的幻覺,似乎“每個人都可以使用人工智能”。
然而,人工智能的傾向、算力分配卻是被高度壟斷的——人人都可以通過簡單的訂閱就可以使用GPT5時,它幾乎所有的控制權(quán),包括思維邏輯、算力分配等,卻都被掌握在一家公司手中。絕大多數(shù)普通人只能陷入“菜鳥互啄”的內(nèi)卷之中。
顯然,令人恐懼的并不是技術(shù)加速本身,而是加速并不均衡:一是加速的機會不均——時代的列車在加速,卻不是人人可以拿到票;二是加速的權(quán)利不均——加速產(chǎn)生了新的特權(quán)階層,而多數(shù)人卻陷入難以跳出的泥淖。
“加速主義”的結(jié)果是技術(shù)統(tǒng)治嗎?
隨著技術(shù)在社會生活中的滲透加深,技術(shù)規(guī)則可能悄然融入倫理和政治規(guī)則的底層結(jié)構(gòu),通過匿名的控制與權(quán)力分配機制,發(fā)揮隱蔽的統(tǒng)治功能。
(一)技術(shù)的匿名統(tǒng)治
倫理規(guī)則原本依賴于人類道德判斷和文化共識,而政治規(guī)則則涉及權(quán)力分配和公共決策。但在數(shù)字化時代,技術(shù)規(guī)則可能通過“黑箱”操作,重新定義這些基礎(chǔ)。
在人工智能治理領(lǐng)域,技術(shù)規(guī)則超越傳統(tǒng)法規(guī),已成為事實上的倫理框架。人工智能系統(tǒng)設(shè)計往往因語料、算法和權(quán)重差異而預(yù)埋道德偏見。例如,在數(shù)據(jù)訓(xùn)練中優(yōu)先效率而非公平。這導(dǎo)致算法主導(dǎo)倫理判斷和決策邏輯——如招聘算法歧視特定群體。當(dāng)技術(shù)發(fā)展速度遠(yuǎn)超監(jiān)管能力,倫理和政治規(guī)則就會被動適應(yīng)技術(shù)邏輯。私有科技公司可以通過平臺壟斷,間接塑造國家治理,導(dǎo)致公共價值被私有算法主導(dǎo)。
技術(shù)規(guī)則通過標(biāo)準(zhǔn)化和預(yù)測實現(xiàn)支配,將形成一種“理性化不負(fù)責(zé)任”的意識形態(tài)狀態(tài)。
在倫理層面,技術(shù)規(guī)則嵌入道德決策,例如人工智能在醫(yī)療或司法中的應(yīng)用,可能強化偏見,卻以“客觀性”為名逃避責(zé)任。這導(dǎo)致倫理規(guī)范從人類共識轉(zhuǎn)向算法優(yōu)化,放大不平等。
在政治層面,這種功能表現(xiàn)為“算法治理”——大型科技平臺控制信息流動,削弱民主參與,用戶在不知情中被引導(dǎo),科技精英取代傳統(tǒng)官僚,形成永久性影響。科技公司成為“公共參與者卻無公共價值”,威脅政治合法性和透明度。
超級技術(shù)公司通過壟斷獲得統(tǒng)治權(quán)。當(dāng)規(guī)則融入生活,“百姓日用而不知”,人工智能就獲得了“豁免權(quán)”。由于算法黑箱、數(shù)據(jù)隱私缺失和用戶協(xié)議的復(fù)雜性,使個體難以感知控制,技術(shù)規(guī)則被視為“自然”而非人為建構(gòu),豁免于倫理或政治辯論。當(dāng)年,谷歌的搜索壟斷被裁定為非法,揭示了技術(shù)公司對信息流動的控制如何重塑政治結(jié)構(gòu)。超級技術(shù)公司如谷歌、亞馬遜和Meta,通過控制數(shù)字基礎(chǔ)設(shè)施,影響選舉、輿論和經(jīng)濟(jì)決策,成為隱形的“政府”。
Meta發(fā)布的Llama 4模型被指在處理政治敏感話題時仍存在偏見。圖源:路透社
(二)單向度的人
馬爾庫塞在《一維的人:發(fā)達(dá)工業(yè)社會意識形態(tài)研究》一書中指出,當(dāng)理性嵌入技術(shù)之中,通過標(biāo)準(zhǔn)化思想和行為來形塑人,個體將技術(shù)控制主導(dǎo)的邏輯內(nèi)化,將其視為自然且不可避免的命運,導(dǎo)致社會的異議空間消失,個性衰退。
馬爾庫塞提出了“一維人”這一概念,指的是在高度工業(yè)化、技術(shù)化的社會中,個人的思想、行為和選擇逐漸變得單一和受限。
人工智能時代,新技術(shù)帶來的“加速”對傳統(tǒng)上的其他價值和方案形成“擠出”效應(yīng),并形成自身的壟斷。由于技術(shù)規(guī)則——嵌入算法、數(shù)據(jù)系統(tǒng)和自動化過程——取代了顯性法律和社會法規(guī),滲透到了社會基礎(chǔ)結(jié)構(gòu),算法取代民主參與成為統(tǒng)一的社會邏輯。再加上人工智能通過算法制造“信息繭房”,強化現(xiàn)有偏見,限制對反對意見的接觸,促進(jìn)單向度話語,被困在算法之中的人們就逐漸喪失了批判精神。人類的多維潛力——包括批判、否定和替代愿景,就被扁平化為單一順應(yīng)和適應(yīng)維度。
我們能否期待“均衡加速”?
指數(shù)增長定律使技術(shù)進(jìn)步呈幾何級數(shù)上升,導(dǎo)致社會適應(yīng)滯后,造成一段時間內(nèi)的兩種不均衡:部分人群不能及時分享技術(shù)紅利,以及少數(shù)階層利用技術(shù)壟斷榨取超額利潤。
(一)人工智能天然具有壟斷天賦?
“加速”在本質(zhì)上會產(chǎn)生技術(shù)壟斷,顛覆平權(quán)。馬克思指出,機械(新技術(shù))雖然提升生產(chǎn)力,但它加劇競爭、加速資本積累,同時將控制權(quán)集中到資本家手中,加劇剝削并使競爭與壟斷不可分離。在當(dāng)代語境中,人工智能公司通過主導(dǎo)數(shù)據(jù)和算法,利用技術(shù)進(jìn)步榨取剩余價值,加強了社會分層:少數(shù)精英壟斷上游技術(shù)或算力等關(guān)鍵基礎(chǔ)設(shè)施;大眾獲得末端使用權(quán),造成內(nèi)卷。
高昂的前期門檻、低成本的后期推廣,這些特點放大了人工智能的壟斷天賦。人工智能技術(shù)作為一種數(shù)據(jù)驅(qū)動的通用技術(shù),其高固定成本、低邊際成本、網(wǎng)絡(luò)效應(yīng)以及依賴大規(guī)模數(shù)據(jù)的特點,不僅推動了人工智能產(chǎn)業(yè)的快速發(fā)展,還強化了“贏者通吃”的傾向,即少數(shù)領(lǐng)先者捕獲市場的絕大部分價值,而中小參與者難以分享收益。
規(guī)模效應(yīng)使得中小參與者無法成為主流。人工智能開發(fā)涉及高額固定成本,使得小企業(yè)難以競爭,例如構(gòu)建大規(guī)模計算基礎(chǔ)設(shè)施和研發(fā)算法;而且人工智能具有用戶規(guī)模越大,系統(tǒng)性能越優(yōu)的特點,容易形成中小競爭者難以逾越的護(hù)城河。
例如,在生成式人工智能市場,少數(shù)公司主導(dǎo)計算資源和數(shù)據(jù)集,限制了中小企業(yè)的進(jìn)入機會,早進(jìn)入市場的企業(yè)不僅能快速占據(jù)資源和人才高地,抑制后發(fā)競爭者,還可以借助先發(fā)優(yōu)勢形成正反饋循環(huán),進(jìn)一步拉大差距,導(dǎo)致市場向寡頭傾斜。
網(wǎng)絡(luò)效應(yīng)則確保領(lǐng)先者通過用戶增長持續(xù)優(yōu)化模型。人工智能模型的訓(xùn)練和優(yōu)化高度依賴海量數(shù)據(jù),這形成了數(shù)據(jù)驅(qū)動的核心機制。領(lǐng)先企業(yè)通過積累專有數(shù)據(jù)集,能夠持續(xù)改進(jìn)模型精度,形成競爭壁壘。同時,模型一旦成熟,其邊際成本接近于零。這就使人工智能不同于傳統(tǒng)制造業(yè),而是更接近平臺經(jīng)濟(jì)模式,在全球范圍內(nèi)放大市場集中趨勢。
(二)新興技術(shù)必然走向資本壟斷?
曾在奧巴馬和拜登政府領(lǐng)導(dǎo)的國家經(jīng)濟(jì)委員會從事科技與競爭政策工作的的專家蒂姆·吳(Tim·Wu)在其著作《主開關(guān):信息帝國的興衰變遷》中考察了美國信息產(chǎn)業(yè)的歷史演變,包括電話、電報、無線電、電影、廣播、電視以及互聯(lián)網(wǎng)等領(lǐng)域,指出這些產(chǎn)業(yè)無不遵循一個重復(fù)的“循環(huán)”模式,即從開放、競爭的階段逐步轉(zhuǎn)向封閉、壟斷的結(jié)構(gòu),隨著技術(shù)創(chuàng)新被資本和權(quán)力捕獲,最終形成帝國般壟斷實體的過程。
蒂姆·吳用“主開關(guān)”的概念描述信息產(chǎn)業(yè)的興衰過程。
循環(huán)的構(gòu)成通常分為三個階段。
一是破壞性創(chuàng)新階段。興趣是這一階段的主要驅(qū)動力,個體發(fā)明家或局外人的顛覆性創(chuàng)新拉開技術(shù)的序幕。這些創(chuàng)新通常源于小型實驗室或業(yè)余愛好,遠(yuǎn)離既有產(chǎn)業(yè)框架,對主流模式造成挑戰(zhàn)。
二是快速增長和充分競爭階段。追求技術(shù)領(lǐng)先和發(fā)展空間是這一階段的主要驅(qū)動力,新技術(shù)吸引競爭者加速入場,形成動態(tài)競爭格局,競爭者憑借持續(xù)的技術(shù)創(chuàng)新和專利保護(hù),獲得發(fā)展優(yōu)勢。
三是壟斷化階段。更高利潤和市場控制成為主要驅(qū)動力,資本通過投資和并購打壓對手,統(tǒng)一技術(shù)標(biāo)準(zhǔn),強化控制地位,導(dǎo)致市場從開放轉(zhuǎn)向封閉。
在吳看來,這一循環(huán)并非偶然,而是信息產(chǎn)業(yè)的網(wǎng)絡(luò)屬性導(dǎo)致的必然結(jié)果:一旦公司構(gòu)建或控制網(wǎng)絡(luò)(如地下電纜或電影院鏈),它便傾向于壟斷,阻止創(chuàng)新和競爭,甚至批評。
(三)我們?yōu)槭裁床辉傥窇终羝麢C?
蒸汽機誕生之初,也曾引起巨大的恐慌,甚至破壞活動。1811-1816年的盧德運動(Luddites)是典型例證:英國紡織工人因為恐懼失業(yè)和社會動蕩而摧毀蒸汽動力織機。這一運動源于蒸汽機取代手工勞動,進(jìn)而產(chǎn)生對工人自身生計的威脅。蒸汽機的發(fā)明者瓦特和博爾頓的創(chuàng)新,雖然標(biāo)志著工業(yè)革命的起點,卻被工人視為“魔鬼機器”,擔(dān)心永久貧困。
盧德分子起義起始于1811年左右。工人破壞并摧毀新型的蒸汽動力織機,以此反抗工業(yè)化、反對機器取代人工。圖源:Wikimedia Commons
技術(shù)普惠。盧德運動后,英國通過《工廠法》和工會改革緩解不公,蒸汽機開始推動經(jīng)濟(jì)增長,創(chuàng)造新就業(yè)??謶窒嗽从谝嫣幤栈荩簭倪\輸?shù)街圃?,技術(shù)逐漸提升了普通人的生活水平。這證明“奇點恐懼”根植于不平等,而非技術(shù)本身。
技術(shù)民主化。當(dāng)蒸汽機不再被少數(shù)人壟斷,多數(shù)人擁有了蒸汽機,它就不再被視為“奇點”。通過普及和法規(guī)調(diào)整,蒸汽機開始從精英工具轉(zhuǎn)為大眾生產(chǎn)力,提升了社會的整體福祉。人們并不是畏懼奇點,而是畏懼奇點帶來的巨大不公平和不均衡。
“加速主義”的均衡治理
人工智能的迅猛發(fā)展將“加速主義”推向了一個十字路口,其指數(shù)級增長的技術(shù)現(xiàn)實,并未完全導(dǎo)向早期理論家所預(yù)言的“普遍解放”,反而催生了廣泛的社會恐懼。它從樂觀主義轉(zhuǎn)向社會恐懼的根源在于技術(shù)進(jìn)步的不均衡分配和技術(shù)壟斷的加劇。這些問題不僅放大了個體被邊緣化的風(fēng)險,還可能導(dǎo)致倫理失衡和權(quán)力集中。
聯(lián)合國《Governing AI for Humanity》報告指出,建立人工智能治理的國際框架,保障AI潛力公平惠及全球人口,同時防范存在風(fēng)險和社會分層已經(jīng)成為迫在眉睫的事,需要加強多方協(xié)作,共同應(yīng)對人工智能帶來的全球挑戰(zhàn)。
在此背景下,“均衡治理”不再是一種選擇,而應(yīng)該成為確保技術(shù)加速進(jìn)程具有包容性和可持續(xù)性的必要路徑。主要國家和機構(gòu)需要加強合作,構(gòu)建均衡治理的多維干預(yù)機制,確保加速過程的包容性和可持續(xù)性,避免奇點成為少數(shù)精英的盛宴。
人工智能可能帶來的脆弱性和風(fēng)險的組織、地區(qū)、群體。圖源:聯(lián)合國《Governing AI for Humanity》報告
(一)加強技術(shù)傳播促進(jìn)技術(shù)普惠
通過知識的廣泛擴(kuò)散與能力的普遍建設(shè),將人工智能從精英專屬的技術(shù)轉(zhuǎn)變?yōu)榇蟊娰x能的工具,以此作為對沖技能替代和社會分層恐懼的首要防線。
技術(shù)普惠可追溯至加速主義的早期理念,如尼克·斯尼塞克所倡導(dǎo)的技術(shù)賦權(quán)觀,認(rèn)為技術(shù)的廣泛傳播是實現(xiàn)“人人解放”的根本前提。然而,當(dāng)前人工智能發(fā)展呈現(xiàn)出一種“民主化幻覺”:盡管領(lǐng)先的人工智能產(chǎn)品以低成本甚至免費形式提供,但其核心算法、算力分配與數(shù)據(jù)控制權(quán)卻高度集中在少數(shù)科技巨頭手中,導(dǎo)致普通用戶陷入被動的消費,而非主動的創(chuàng)造的境遇。只有加強傳播治理,打破這一幻覺,才有可能實現(xiàn)真正的技術(shù)普惠。
蒂姆·吳在其著作《主開關(guān)》中提出,教育與知識傳播是打破信息產(chǎn)業(yè)往往遵循從開放競爭到封閉壟斷的“循環(huán)”模式的關(guān)鍵干預(yù)手段,它不僅是技術(shù)層面的擴(kuò)散,更是一場權(quán)力的再分配過程。因此,加強傳播將成為均衡治理的基石,將人工智能從潛在的“分層工具”轉(zhuǎn)變?yōu)榘菪砸?,確保加速過程不拋棄任何社會群體。
實現(xiàn)這一目標(biāo)需要推進(jìn)教育體系的全面深化改革。
一是要建立全面的人工智能素養(yǎng)課程體系。這套體系應(yīng)覆蓋從中小學(xué)基礎(chǔ)教育、大學(xué)教育到成人職業(yè)培訓(xùn)的全周期,內(nèi)容不僅包括算法基礎(chǔ)和工具使用,更要融入人工智能倫理教育。其具體目標(biāo)包括,推動人工智能時代教育體系改革;幫助律師、程序員等面臨沖擊的白領(lǐng)從業(yè)者順利轉(zhuǎn)型為人工智能輔助的新角色,避免大規(guī)模失業(yè)潮;形成全社會對知識和技能的新共識和新培訓(xùn)體系。
二是利用政策激勵推動開源人工智能模型與公共基礎(chǔ)設(shè)施建設(shè)。可以借鑒歐盟的開放數(shù)據(jù)倡議,創(chuàng)建標(biāo)準(zhǔn)化的數(shù)據(jù)共享協(xié)議,促進(jìn)跨國合作,防止數(shù)據(jù)孤島的形成。政府應(yīng)通過稅收減免、研發(fā)補貼等方式鼓勵新興技術(shù)項目開源,降低中小企業(yè)的創(chuàng)新門檻,并牽頭建立全球性的數(shù)據(jù)共享庫與公共算力基礎(chǔ)設(shè)施(如國家人工智能云平臺),確保創(chuàng)新資源普惠,而不再是少數(shù)巨頭的專屬。
歐盟通過歐洲委員會設(shè)立的data.europa.eu平臺來實施開放數(shù)據(jù)政策。圖源: data.europa.eu
三是構(gòu)建多層次的技術(shù)傳播交流機制。在學(xué)校、社區(qū)可以舉辦技能培訓(xùn)和講座等活動,激發(fā)本地創(chuàng)新活力,增強公眾的參與感和獲得感。在國際層面,可以借鑒聯(lián)合國的數(shù)字包容倡議,促進(jìn)技術(shù)從發(fā)達(dá)國家向發(fā)展中國家的轉(zhuǎn)移,防范全球范圍內(nèi)的數(shù)字鴻溝加劇分層風(fēng)險。有能力的國家應(yīng)該設(shè)立明確的政策目標(biāo)為中小企業(yè)提供支持,例如在五年內(nèi)推動人工智能工具在中小企業(yè)的普及率提升30%,或推動職業(yè)曝光度高的行業(yè)的轉(zhuǎn)型培訓(xùn)覆蓋率達(dá)到50%。
警惕技術(shù)問題技術(shù)解決的狹隘思路。必須警惕過度依賴技術(shù)而忽略其背后的人文與社會因素的解決方案。人工智能教育不應(yīng)僅僅是技能培訓(xùn),更應(yīng)包含批判性思維的培養(yǎng),讓公眾理解人工智能的局限性與潛在偏見,促進(jìn)人的全面發(fā)展。
(二)加強反壟斷推動技術(shù)均衡
如果說技術(shù)傳播是為社會提供參與加速的“船票”,那么反壟斷則是確保航道暢通、防止少數(shù)“巨輪”擠占所有空間的必要保障。
當(dāng)少數(shù)公司通過其算法塑造社會信息流與價值判斷時,反壟斷便成為重塑權(quán)力動態(tài)、確保奇點轉(zhuǎn)型過程公平的必要手段。人工智能產(chǎn)業(yè)的結(jié)構(gòu)性特征,包括高昂的固定成本、接近于零的邊際成本、強大的網(wǎng)絡(luò)效應(yīng)以及對海量數(shù)據(jù)的依賴,容易形成一種“上游壟斷、下游內(nèi)卷”的局面:少數(shù)巨頭控制著基礎(chǔ)模型、算力和數(shù)據(jù)等核心資源,而絕大多數(shù)下游開發(fā)者和用戶則在這些巨頭的平臺上進(jìn)行著激烈的同質(zhì)化競爭。因此,反壟斷干預(yù)不僅是技術(shù)和經(jīng)濟(jì)工具,更是一種基本發(fā)展權(quán)的保護(hù)。
應(yīng)對人工智能時代的壟斷挑戰(zhàn),需要一套超越傳統(tǒng)框架的創(chuàng)新監(jiān)管工具。
第一,加強國際溝通,修訂并完善反壟斷規(guī)則。
監(jiān)管機構(gòu)應(yīng)針對人工智能產(chǎn)業(yè)特有的規(guī)模效應(yīng)和網(wǎng)絡(luò)效應(yīng)設(shè)立新的壟斷認(rèn)定標(biāo)準(zhǔn),例如,當(dāng)一家公司控制的數(shù)據(jù)集或算力超過某一臨界規(guī)模時,可觸發(fā)強制性的拆分或數(shù)據(jù)開放要求。在此方面,歐盟的《人工智能法案》提供了寶貴的范例,它對OpenAI、Google等“守門人”企業(yè)實施事前審查,引入風(fēng)險評估與競爭影響分析。
第二,建立專門的人工智能并購審查機制,加強中小創(chuàng)新企業(yè)保護(hù)。
為防止寡頭通過并購扼殺潛在競爭對手(如谷歌收購DeepMind的案例),應(yīng)成立一個跨學(xué)科的人工智能并購審查委員會,對相關(guān)交易進(jìn)行更嚴(yán)格的審查。與此同時,政府應(yīng)通過稅收優(yōu)惠和專項基金,積極扶持中小人工智能企業(yè)和開源社區(qū),構(gòu)建一個多元、健康的競爭生態(tài)。
圖源:Getty Imagies
第三,推動全球反壟斷合作,建立廣泛、統(tǒng)一的反壟斷框架。
正如蘭德公司的報告所指出的,人工智能治理深刻影響著國家間的權(quán)力動態(tài),因此全球范圍內(nèi)的平等協(xié)作與對話至關(guān)重要,以確保反壟斷規(guī)則不會淪為地緣政治的工具。
鑒于人工智能巨頭的全球性,單一國家的監(jiān)管往往力不從心。應(yīng)在G20等多邊框架下推動反壟斷政策的協(xié)調(diào),建立全球統(tǒng)一的人工智能倫理與數(shù)據(jù)共享標(biāo)準(zhǔn),防范跨境壟斷和監(jiān)管套利。歷史上對谷歌搜索壟斷案的裁決,為人工智能領(lǐng)域采取“行為補救”措施(如強制開放關(guān)鍵API)提供了先例,這些措施能夠有效恢復(fù)市場競爭。
推動沙盒監(jiān)管等創(chuàng)新實驗,探索監(jiān)管與發(fā)展的協(xié)調(diào)發(fā)展。必須在促進(jìn)競爭與保護(hù)創(chuàng)新之間尋求精妙的平衡,避免過度干預(yù)扼殺技術(shù)進(jìn)步的活力。這要求監(jiān)管決策過程必須有跨學(xué)科專家的深度參與,并通過區(qū)域性的試點項目來審慎驗證政策效果。
從歷史來看,監(jiān)管易滯后于技術(shù)發(fā)展速度,難以應(yīng)對技術(shù)的復(fù)雜性。修訂緩慢的法規(guī)注定會失敗。解決方案在于建立動態(tài)的、適應(yīng)性的監(jiān)管模型。如通過設(shè)立“監(jiān)管沙盒”,允許企業(yè)在受控環(huán)境中測試創(chuàng)新產(chǎn)品,同時也讓監(jiān)管者能夠近距離觀察和學(xué)習(xí),從而制定出更精準(zhǔn)的規(guī)則。
展望
隨著“奇點”臨近,留給治理調(diào)整的窗口期不會太長。關(guān)于技術(shù)奇點的預(yù)言不應(yīng)被視為一個被動等待的宿命,而是一個需要人類通過主動治理去積極塑造的未來。人類是恐懼著、被動地滑向一個由技術(shù)定義的終點,還是通過多方協(xié)作,共同建設(shè)一個更加公正、平等的人工智能時代,取決于我們當(dāng)下的選擇。
我們可以期待,通過完善均衡治理,技術(shù)加速可以帶來普惠和公平,在釋放人類創(chuàng)新潛力的同時,確保技術(shù)奇點成為人類文明共同躍升的起點,而非分化的鴻溝。畢竟,未來的世界,不應(yīng)由硅基的邏輯代碼單獨書寫,也需要碳基生命的智慧、遠(yuǎn)見與抉擇。
【關(guān)于“城市觀察”】
“城市觀察”是廣州市社會科學(xué)院城市治理研究所副所長、IPP特約研究員孫占卿博士在“IPP評論”開設(shè)的專欄,著力分析當(dāng)今中國城市發(fā)展所面臨的模式與路徑、技術(shù)與產(chǎn)業(yè)發(fā)展等問題。
點擊圖片閱讀更多孫占卿博士的文章
IPP公共關(guān)系與傳播中心
排版|周浩鍇
審閱|劉 深
終審|劉金程
誠摯約稿
“IPP評論”是國家高端智庫華南理工大學(xué)公共政策研究院(IPP)的官方微信平臺,以提倡優(yōu)秀政策研究為導(dǎo)向?,F(xiàn)IPP評論歡迎海內(nèi)外學(xué)者和專家同仁就國際關(guān)系、社會治理、技術(shù)與產(chǎn)業(yè)及相關(guān)公共政策話題的研究賜稿,協(xié)助舉辦專欄。稿件須以科學(xué)化和學(xué)科化為導(dǎo)向,符合學(xué)術(shù)議論文的一般規(guī)范,突出對于公共政策實踐的啟示和建議。IPP評論將邀請院內(nèi)專家對稿件進(jìn)行匿名審稿,并在收文一個月內(nèi)擇優(yōu)刊登。
來稿請寄 wx@ipp.org.cn,電子郵件題目請標(biāo)明“IPP評論投稿”。目前僅接受電子郵件投稿,一般來稿以5千字左右為宜。
凡在IPP評論上發(fā)表的文字,不代表本機構(gòu)觀點,作者需對作品的學(xué)術(shù)正直性負(fù)全責(zé)。著作權(quán)歸華南理工大學(xué)公共政策研究院所有,作者享有署名權(quán)。未經(jīng)書面允許,不得轉(zhuǎn)載。引用或轉(zhuǎn)載本刊文章請注明出處。
華南理工大學(xué)公共政策研究院
“IPP評論”編輯部
【城市觀察】重估一切:RWA開啟資產(chǎn)統(tǒng)一與價值重構(gòu)時代
【城市觀察】孫占卿:不解決發(fā)展同質(zhì)化問題,統(tǒng)一大市場就會變成“內(nèi)卷加速器”
孫占卿:如何破局“無利潤繁榮”背后的“供應(yīng)鏈壓榨”?
關(guān)于IPP
華南理工大學(xué)公共政策研究院(IPP)是一個獨立、非營利性的知識創(chuàng)新與公共政策研究平臺。IPP圍繞中國的體制改革、社會政策、中國話語權(quán)與國際關(guān)系等開展一系列的研究工作,并在此基礎(chǔ)上形成知識創(chuàng)新和政策咨詢協(xié)調(diào)發(fā)展的良好格局。IPP的愿景是打造開放式的知識創(chuàng)新和政策研究平臺,成為領(lǐng)先世界的中國智庫。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.