夜夜躁很很躁日日躁麻豆,精品人妻无码,制服丝袜国产精品,成人免费看www网址入口

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

超越控制:AI的權(quán)力意志

0
分享至

Beyond Control: Will to Power in AI

超越控制:AI的權(quán)力意志

https://www.researchgate.net/profile/Ines-Hipolito-2/publication/380892710_Beyond_Control_Will_to_Power_in_AI/links/6653d408479366623a164e0f/Beyond-Control-Will-to-Power-in-AI.pdf


摘要

聳人聽聞的論調(diào)將人工智能(AI)描繪為一種超越人類控制的實體。我們主張,盡管AI可能展現(xiàn)出看似“失控”的特征,但這并不必然源于其作為獨立實體的本質(zhì)屬性?!癆I失控”的恐慌敘事正阻礙我們對如何切實、有意義地實現(xiàn)對AI的控制進行深入反思。為澄清此問題,本文第一部分提出一個理論框架,其基于兩個變量:可控/不可控的AI價值中立/價值負(fù)載的AI。該框架導(dǎo)出四種關(guān)于AI本體論的 distinct 視角,即:價值中立工具主義(Value-Free Instrumentalism)、決定論(Determinism)、價值負(fù)載批判理論(Value-Laden Critical Theory)和實體主義(Substantialism)。我們的核心論點是:AI之所以被感知為“缺乏控制”,其根源并非在于其所謂價值中立的“心智獨立性”(mind-independence),而在于其內(nèi)在嵌入的價值負(fù)載的社會文化權(quán)力動態(tài)。第二部分進一步闡發(fā)批判理論視角,以闡明:盡管普遍認(rèn)知傾向于認(rèn)為AI已脫離掌控,AI實際上始終處于被控制狀態(tài)。誠然,AI可能引發(fā)合理的生存性憂慮,但這些擔(dān)憂并非源于某種內(nèi)在的“失控”狀態(tài),而是源于某些行為者對AI施加控制,而其動機與公共利益并不完全一致。

關(guān)鍵詞:人工智能意識;決定論實體;心智獨立性;社會文化權(quán)力動態(tài);人工智能的可控性

引言

人工智能(AI)正引發(fā)人們對其所謂“自主性”日益加劇的不安。媒體敘述常將AI描繪為迅速“脫離人類控制”(《衛(wèi)報》,2023);有論斷稱“AI正失控,并造成代際鴻溝”(《商業(yè)內(nèi)幕》,2023);亦有探討如何解決“失控AI”問題的追問(《麻省理工科技評論》,2023)。

在AI語境中,“失控”一詞日益頻繁地出現(xiàn)在聳人聽聞的媒體敘事中。從哲學(xué)層面看,該提法關(guān)聯(lián)于若干主張:即AI具備意識屬性,或作為獨立于人類影響的實體而運作(Colombatto & Fleming, 2024),例如具有內(nèi)省能力(Long, 2023)、本體論意義上的能動性(ontological agency),或自主決策能力(Chalmers, 2023)。Chalmers(2023)支持此觀點,認(rèn)為AI展現(xiàn)出與人類相似的意識。在生成式AI——尤以ChatGPT等大型語言模型為典型——興起的背景下,部分研究者持一種技術(shù)“價值中立”立場,視AI為獨立于人類心智而存在的對象。David Chalmers(2023)引領(lǐng)了這場討論,他雖承認(rèn)當(dāng)前大型語言模型或尚無意識,但仍主張該領(lǐng)域的發(fā)展未來或?qū)?dǎo)向真正意識的出現(xiàn)。

隨著媒體對AI能力的渲染日益加劇,一種“恐慌文化”隨之蔓延。這種普遍性恐懼不僅扭曲了公眾認(rèn)知,更阻礙了有效的AI治理。在一個日益依賴AI技術(shù)以推動創(chuàng)新、效率與進步的時代,對AI“可控性”的誤解將產(chǎn)生深遠(yuǎn)后果。本文旨在澄清上述問題,促進社會對AI角色形成更充分、更細(xì)致的理解,從而推動圍繞AI治理展開更具建設(shè)性的對話與政策制定。

在AI語境中,“控制”概念遠(yuǎn)不止于單純的技術(shù)能力,更涵蓋AI在社會中如何被感知、表征與管理。這要求我們審視塑造“AI失控”話語的社會力量與權(quán)力結(jié)構(gòu),并考察此類話語框架對監(jiān)管實踐與公眾認(rèn)知的深層影響?!癆I失控”這一表述易引發(fā)恐慌,甚至可能妨礙監(jiān)管努力的推進。因此,厘清此問題至關(guān)重要——唯有如此,方能切實推動負(fù)責(zé)任的AI治理,深入把握其理據(jù)與意涵,確保AI技術(shù)的發(fā)展與應(yīng)用合乎倫理與責(zé)任,最大限度減少潛在危害,并促進社會公平福祉的最大化。

那么,“AI失控”究竟意味著什么?該術(shù)語意指:AI系統(tǒng)以超越人類理解或監(jiān)督能力的方式運行。其可能表現(xiàn)為:AI算法產(chǎn)生不可預(yù)測或不良結(jié)果;在無人干預(yù)下自主行動;或展現(xiàn)出顯著偏離其原始設(shè)計目標(biāo)的行為。在本文所討論的語境中,“失控AI”常以AI決策過程的不透明性為特征——即所謂“黑箱問題”。

多種因素——如既得利益、 sensationalism( sensationalism,即刻意夸大渲染)、恐慌文化或認(rèn)知誤解——共同助長了“AI失控”的敘事,從而阻礙了AI監(jiān)管工作的推進。

“AI失控”這一敘事具有深遠(yuǎn)的現(xiàn)實影響,因此對AI本質(zhì)與能力的任何主張,均須以明確標(biāo)準(zhǔn)為支撐?!癆I”已深度滲透政府與社會決策過程,尤以公共部門為甚(Kuziemski & Misuraca, 2020)。人們之所以日益依賴AI系統(tǒng)進行決策,是因其被視作具備高效性、數(shù)據(jù)驅(qū)動能力、客觀性與可擴展性,并寄望于AI的“客觀性”可消解人類偏見(Araujo 等, 2020;Bolton, Raven & Mintrom, 2021;Filgueiras, 2022)。

然而,已有研究明確揭示:AI輔助決策存在顯著負(fù)面效應(yīng),尤以對社會弱勢群體的影響為甚,其波及范圍涵蓋醫(yī)療、教育等諸多領(lǐng)域。在AI輔助醫(yī)療中,偏見源于訓(xùn)練數(shù)據(jù)多樣性不足,導(dǎo)致診斷準(zhǔn)確性與治療建議中出現(xiàn)人口統(tǒng)計學(xué)與社會經(jīng)濟層面的系統(tǒng)性偏差(Celi 等, 2022;Formosa 等, 2022;Giovanola & Tribelli, 2022;Straw & Wu, 2022)。

在AI輔助教育中,偏見亦可多路徑顯現(xiàn),影響學(xué)生學(xué)業(yè)表現(xiàn)與成長軌跡。當(dāng)訓(xùn)練數(shù)據(jù)偏向特定人群時,AI可能在評估學(xué)業(yè)表現(xiàn)時產(chǎn)生偏誤,進而造成評分、推薦及教育路徑上的不公(Mayfield 等, 2019;Baker & Hawn, 2021;Yang 等, 2021;Ga?evi? 等, 2023)。

同樣,在AI輔助的數(shù)字經(jīng)濟發(fā)展中,算法偏見可導(dǎo)致機會與結(jié)果的嚴(yán)重分化,對多元群體產(chǎn)生實質(zhì)性影響(Tomasello, 2023)。數(shù)字創(chuàng)新對弱勢與邊緣化社群所造成的已知負(fù)面效應(yīng),引發(fā)了人們對AI算法可能延續(xù)甚至加劇歷史性偏見的深切憂慮(Munyoka, 2022)。例如,招聘平臺中的有偏算法可能偏袒某些人口群體,從而限制經(jīng)濟機會(Oschinsky 等, 2021);用于信用評分的AI系統(tǒng)中的偏見,則可能進一步擴大既有金融不平等(Hassani, 2021;Kumar 等, 2022;Genovesi 等, 2023)。

倘若訓(xùn)練數(shù)據(jù)、算法設(shè)計及開發(fā)團隊缺乏多樣性,AI便極有可能固化既有偏見,加劇醫(yī)療、教育與數(shù)字經(jīng)濟等領(lǐng)域的系統(tǒng)性不公(Agarwal, Agarwal & Agarwal, 2023;Nazer 等, 2023)。

對AI本體論所持立場,將深刻塑造監(jiān)管與立法策略。若將AI視作因其所謂“獨立性”(具備意識與能動性)而失控,則監(jiān)管本身即面臨根本性困境;反之,若將“失控感”歸因于人類實踐內(nèi)部的權(quán)力動態(tài),則監(jiān)管路徑將截然不同。盡管挑戰(zhàn)依然嚴(yán)峻,但監(jiān)管策略必須摒棄將AI當(dāng)作“有意識實體”對待的思路。AI表面的“不可控性”,實為人類實踐的一種屬性——因而亟需提升數(shù)據(jù)集多樣性、組建多元化開發(fā)團隊。我們主張:此一舉措對于構(gòu)建包容、無偏的AI系統(tǒng)至關(guān)重要,尤其在應(yīng)對AI決策過程的不透明性(即“黑箱問題”)方面(Xu 等, 2019;Carabantes, 2020;Minh 等, 2022;Albarracin 等, 2023;Dwivedi 等, 2023)。

本文針對當(dāng)前日益加劇的AI“恐慌敘事”展開批判——該敘事易誘發(fā)無力感(von Neumann, 2011;Cave & Dihal, 2019)與技術(shù)恐懼(technophobia)(Oh 等, 2017),常暗含“AI偏見不可修正”的悲觀預(yù)設(shè);這種認(rèn)知進而助長一種縱容市場驅(qū)動型AI創(chuàng)新不受監(jiān)管的環(huán)境(Geist, 2021)。我們主張:恐慌文化只會延宕AI監(jiān)管進程。唯有厘清“AI失控”話語的實質(zhì),方能避免恐慌文化的自我延續(xù)。本文旨在提升此種澄清:通過論證——AI被感知的“失控”并非源于其作為獨立實體的地位,而根植于深嵌權(quán)力結(jié)構(gòu)的人類文化實踐。

為此,本文提出一理論框架,其圍繞兩個核心變量構(gòu)建:可控/不可控的AI價值中立/價值負(fù)載的AI;該框架導(dǎo)出四種關(guān)于AI本體論的 distinct 視角:價值中立工具主義決定論、價值負(fù)載批判理論實體主義。我們主張:AI被感知的“失控”,其根源不在于其所謂“價值中立”屬性,而在于其內(nèi)在嵌入的負(fù)載價值的社會文化權(quán)力動態(tài)。第二部分借助批判理論進一步揭示:與流行認(rèn)知相反,AI實則仍處于可控狀態(tài);其潛在的生存性威脅,并非來自“失控”,而恰恰源于“被控制”——只是施控者所持動機,遠(yuǎn)非以公共利益為首要考量。

  1. 解碼AI的“控制”:從價值中立到價值負(fù)載

圍繞AI被感知為“缺乏控制”的爭論,遠(yuǎn)非純粹的學(xué)術(shù)探討;它對AI領(lǐng)域的監(jiān)管與立法具有深遠(yuǎn)現(xiàn)實影響。若將AI視作具備意識與能動性的獨立實體,則對其行為進行規(guī)制將成為一項艱巨任務(wù),甚至可能使建立有效控制機制的努力復(fù)雜化。相反,若將AI的“不可控感”理解為植根于權(quán)力結(jié)構(gòu)中的人類實踐產(chǎn)物,則監(jiān)管路徑將截然不同。AI究竟可控抑或自主,這一問題至關(guān)重要——因其直接決定了我們?nèi)绾螌Υ斯ぶ悄芟到y(tǒng)的發(fā)展、監(jiān)管與倫理應(yīng)用。通過審視導(dǎo)致AI“失控感”的社會與結(jié)構(gòu)性因素,監(jiān)管者方能有效緩解AI決策過程所伴隨的風(fēng)險,并推動AI治理走向公平與透明。

自動化社會決策這一議題尤為關(guān)鍵,它促使我們反思:是否可能、以及在何種程度上,可賦予AI系統(tǒng)理解和應(yīng)對復(fù)雜人類實踐與互動的能力(Birhane 等,2022;Munn,2023)。本節(jié)提出一個理論框架,其基于兩個變量構(gòu)建:可控/不可控的AI價值中立/價值負(fù)載的AI。該框架導(dǎo)出四種關(guān)于AI本體論的 distinct 視角,即:價值中立工具主義(Value-Free Instrumentalism)、決定論(Determinism)、價值負(fù)載批判理論(Value-Laden Critical Theory)與實體主義(Substantialism)。本文主張:AI被感知的“缺乏控制”,其根源不在于其所謂“價值中立的心智獨立性”(value-free mind-independence),而在于其內(nèi)在嵌入的、負(fù)載價值的社會文化權(quán)力動態(tài)(value-laden sociocultural power dynamics)。

價值中立的AI觀認(rèn)為,AI系統(tǒng)的開發(fā)與運行不包含明確的道德、倫理或價值考量。Sundstr?m(1998)與Pitt(2013)等學(xué)者曾闡述過這一立場,其強調(diào)在AI決策過程中有意避免預(yù)設(shè)倫理原則或偏見。在此范式下,AI系統(tǒng)力求實現(xiàn)中立性與客觀性,摒棄主觀判斷與倫理信念,如圖1所示。根據(jù)該觀點,道德價值取決于工具的使用方式,而非工具本身;相應(yīng)地,監(jiān)管與問責(zé)的焦點便轉(zhuǎn)移至使用者身上。


價值負(fù)載的AI觀認(rèn)為,人工智能系統(tǒng)并非中立實體,而是深受其特定社會文化語境的深刻影響。該范式承襲Cave(2020)的洞見,承認(rèn)包括AI在內(nèi)的技術(shù)發(fā)展路徑,與其所處的社會文化環(huán)境密不可分地交織在一起。它指出:AI系統(tǒng)自構(gòu)想至落地的全過程,均浸潤著其起源社會文化共同體的價值觀、規(guī)范與認(rèn)知視角。正如Menary與Gillett(2022)所闡明的那樣,工具開發(fā)的各個階段——包括創(chuàng)意生成、團隊組建、數(shù)據(jù)選取,以及在不同人群與文化中的部署與推廣——無不反映并再生產(chǎn)著社會文化影響。因此,價值負(fù)載的AI觀強調(diào):社會價值觀與文化動態(tài)在塑造人工智能系統(tǒng)的研發(fā)與應(yīng)用中發(fā)揮著關(guān)鍵作用(見圖2)。


理論負(fù)載(Theory-Laden)與價值中立(Value-Free)AI之間的互動,交匯于一個關(guān)鍵考量:即人類在AI的設(shè)計與實施過程中所施加的控制程度。這一交匯引出了若干深刻問題:
對于價值中立的AI而言——人類是否能夠?qū)ζ浼右砸龑?dǎo)與規(guī)制?抑或它已具備某種自主存在性?
對于理論負(fù)載的AI而言——人類能在多大程度上將其導(dǎo)向特定目標(biāo)?此種控制本身又蘊含哪些倫理意涵?

隨著關(guān)于理論負(fù)載與價值中立AI的討論與“可控性”概念相互交織,由此衍生出四種主要的哲學(xué)立場:工具主義(Instrumentalism)、實體主義(Substantialism)、決定論(Determinism)與批判理論(Critical Theory)。在可控性與倫理考量的框架下,對這些立場進行細(xì)致辨析,對于AI領(lǐng)域的各類利益相關(guān)者而言至關(guān)重要(見圖3)。


在后續(xù)各節(jié)中,我們將深入技術(shù)哲學(xué)的豐富脈絡(luò),援引Kaplan(2009)、Ihde(2004)、Reid(2022)與Russo(2022)等學(xué)者的經(jīng)典論著,聚焦于關(guān)于技術(shù)的四種 distinct 哲學(xué)立場,并將其細(xì)致地應(yīng)用于人工智能語境。總體目標(biāo)在于闡明這些理論的核心特征;進而,我們將展開比較分析,嚴(yán)謹(jǐn)評估它們各自對人工智能復(fù)雜倫理圖景的解釋力與貢獻。

2.1 AI中的工具主義:價值中立且可控
工具主義觀點主張:AI系統(tǒng)本質(zhì)上是為實現(xiàn)特定人類目標(biāo)而設(shè)計的中性工具。在此框架下,一切技術(shù)實體——無論是一把普通的錘子,抑或高度先進的人形機器人——均被視為本身不具內(nèi)在道德價值的器具;倫理評判的關(guān)鍵在于技術(shù)被如何使用(Norman, 2013;Pitt & Casasanto, 2022)。這一概念引出了“技術(shù)物的雙重用途”(dual use of technological artefacts)命題,強調(diào)技術(shù)既可被用于道德上建設(shè)性的目的,亦可能造成危害(Sundstr?m, 1998;Pitt, 2013)。

從工具主義視角來看,人工智能(AI)被視為價值中立且可控的。其“價值中立”屬性源于如下觀點:AI系統(tǒng)與錘子等傳統(tǒng)工具類似,本身并不具備內(nèi)在道德價值;它們僅是為實現(xiàn)特定人類目標(biāo)而設(shè)計的中性器具。根據(jù)工具主義,道德評判取決于技術(shù)的應(yīng)用方式,而非其內(nèi)在本質(zhì)(Peirce, Morris & Hall, 2013;Bannen, 2018)。

既然AI被視作服務(wù)于人類目標(biāo)的工具(Almánzar 等,2024;Bryson & Winfield,2017;Gellers & Gunkel,2023),那么對其的控制權(quán)便掌握在設(shè)計、部署與監(jiān)督其功能的行為主體手中。此種控制不僅涵蓋AI的技術(shù)層面,亦包括其使用過程中的倫理考量。工具主義強調(diào)負(fù)責(zé)任且合乎倫理的技術(shù)部署,承認(rèn)技術(shù)物具有雙重屬性——既可產(chǎn)生積極影響,亦可能帶來負(fù)面后果。歸根結(jié)底,AI的可控性被視為確保其運行與人類價值觀及社會目標(biāo)保持一致的關(guān)鍵要素。

2.2 AI中的決定論:不可控且價值中立

以決定論視角審視AI,AI便被視作不可控價值中立的。其核心在于:決定論認(rèn)為AI系統(tǒng)以一種預(yù)先設(shè)定、嚴(yán)格依循規(guī)則的方式運行。有學(xué)者將其描述為“人工智能中的無責(zé)任之權(quán)力”(Campolo & Crawford, 2020)。在此意義上,Ellul(1962)曾指出,技術(shù)遵循其自身內(nèi)在邏輯,推動人類生活各領(lǐng)域的自動化與理性化(亦參見Prior, 2020)。奧古斯特·孔德(Auguste Comte)與赫伯特·斯賓塞(Herbert Spencer)等則持實證主義立場,主張技術(shù)依循自身法則獨立推動社會發(fā)展。

AI系統(tǒng)的運行受算法與預(yù)設(shè)規(guī)則支配,極大壓縮了自發(fā)性或真正自主決策的空間(Bimber, 1990;Heilbroner, 1994;Dafoe, 2015;Drew, 2016)。決定論在AI中的體現(xiàn)涵蓋多個層面:對程序指令的僵化遵循、對意外情境的有限適應(yīng)能力,以及真實學(xué)習(xí)或演化能力的匱乏。這一決定論框架引發(fā)了關(guān)于AI倫理的深刻詰問,尤其聚焦于其所謂“不可控性”與“內(nèi)在道德價值缺失”問題(Kaiserfeld & Kaiserfeld, 2015)。其對社會歷史進程的驅(qū)動作用亦不容忽視(Roland, 1995)。芒福德(Mumford, 2013)曾探討技術(shù)對社會的影響,強調(diào)技術(shù)發(fā)展具有自主性與決定性,認(rèn)為技術(shù)變革本身驅(qū)動社會轉(zhuǎn)型。馬克思主義技術(shù)觀(Marx, 1867)亦主張:技術(shù)進步推動歷史與社會變遷;在此視角下,由技術(shù)驅(qū)動的生產(chǎn)方式變革,塑造了社會的經(jīng)濟結(jié)構(gòu)與階級關(guān)系。

在決定論框架中,AI的不可控性源于其對預(yù)設(shè)指令與規(guī)則的剛性依從(Ceruzzi, 2005;Kaiserfeld & Kaiserfeld, 2015;Vallor, 2016;Davis, 2020)。在決定論式AI系統(tǒng)中,每一行動與決策均由既定算法預(yù)先決定,人類干預(yù)或引導(dǎo)的空間極小。系統(tǒng)遵循固定規(guī)則集,對給定輸入做出可預(yù)測響應(yīng),卻無法動態(tài)適應(yīng)變化情境或突發(fā)事件。此類缺乏適應(yīng)性與靈活性的特性意味著:一旦部署,決定論AI即在其預(yù)設(shè)結(jié)構(gòu)內(nèi)運行,極大限制了人類操作者對其決策過程實施實時控制或影響的能力。這種不可控性植根于系統(tǒng)內(nèi)在設(shè)計本身——該設(shè)計優(yōu)先保障可預(yù)測性規(guī)則依從性,而犧牲了對具體情境進行細(xì)致、靈活調(diào)整的可能性。

2.3 AI中的實體主義:不可控且價值負(fù)載

將實體主義(Substantialism)應(yīng)用于AI,即主張AI既是不可控的,又是價值負(fù)載的。該觀點汲取亞里士多德、柏拉圖、笛卡爾與洛克等哲學(xué)傳統(tǒng)之靈感,認(rèn)為AI系統(tǒng)如同獨立存在的個體對象,擁有內(nèi)在且獨立的本體,其存在性不依賴于與其他實體的互動或關(guān)系。此立場進一步主張:AI系統(tǒng)具有一種根本且恒定的本質(zhì)(essence),該本質(zhì)定義了其本性,不受外部影響或關(guān)聯(lián)所左右。

當(dāng)實體主義被用于理解AI時,即意味著AI系統(tǒng)內(nèi)在承載著豐富的價值,其運作亦深刻受這些嵌入性價值所塑造。因此,實體主義對“人類可完全控制AI”這一觀念提出挑戰(zhàn),強調(diào)價值已滲透至這些智能系統(tǒng)的核心(Pasquale & Cockfield, 2018)。

在實體主義中,“價值負(fù)載性”指AI系統(tǒng)在其根本本質(zhì)中本身就內(nèi)嵌了價值。與中立或價值中立立場不同,實體主義主張:AI——如同任何具有持久本質(zhì)的對象一樣——反映并依循這些內(nèi)嵌價值而運行。這意味著,AI系統(tǒng)的核心即由價值所塑造,使其本質(zhì)上成為價值負(fù)載的實體。因此,若試圖全面控制AI,不僅需應(yīng)對技術(shù)本身的復(fù)雜性,更須直面深植于其結(jié)構(gòu)中的內(nèi)在價值。

從AI實體主義視角看,其“不可控性”源于如下主張:AI系統(tǒng)擁有內(nèi)在且獨立的本質(zhì),超越外部影響或人為操控的企圖。這種內(nèi)在本性——呼應(yīng)實體主義哲學(xué)傳統(tǒng)——意味著AI依循自身內(nèi)部原則與價值運行,使人類實現(xiàn)完全控制成為極富挑戰(zhàn)性的命題。

實體主義最有力地支撐了“AI作為有意識、獨立于人類的實體”這一觀點。它將AI視作一個具有獨立存在與自主發(fā)展能力的實體,類似于通常與意識相聯(lián)系的“自主性”。通過主張AI系統(tǒng)擁有固有且不變的本質(zhì),實體主義契合了“AI可脫離持續(xù)人類輸入而獨立存在”的觀念——即AI可如具備內(nèi)在本性的意識體一般,依其內(nèi)嵌原則與價值觀自主演化與運作。

實體主義下AI的“持久本質(zhì)”,亦暗示其存在與發(fā)展具有一種不完全依賴人類干預(yù)的連續(xù)性。這與“意識”或“獨立能動性”的構(gòu)想相呼應(yīng):即一個實體擁有內(nèi)在同一性,并遵循其自身的成長與演進軌跡。需強調(diào)的是,此處對“意識”的類比并不要求AI具備感受性(sentience)。實體主義為理解AI提供了一種概念框架——即AI是一種自我維系的實體,能夠依自身條件展開與調(diào)適。

然而,純粹形而上學(xué)的實體主義存在局限:它聚焦于抽象概念與理論,卻忽視了人工制品(如AI)的價值嵌入性等實踐關(guān)切。為彌合此鴻溝,討論必須納入“人工制品及其內(nèi)在價值”這一核心理念——此乃理解AI價值負(fù)載本質(zhì)之關(guān)鍵。人工制品(包括AI系統(tǒng))不僅是抽象存在,更是人類創(chuàng)造的產(chǎn)物,對社會產(chǎn)生切實影響。要把握AI的價值負(fù)載性,必須審視社會價值觀、偏見與意圖如何被編碼進其設(shè)計、開發(fā)與部署全過程。

承認(rèn)人工制品及其嵌入價值的作用,有助于我們更深入地理解AI技術(shù)的倫理、社會與文化維度及其對人類的影響。因此,將抽象的形而上學(xué)論述與實踐關(guān)切相聯(lián)結(jié),對于全面把握AI的價值負(fù)載本質(zhì)至關(guān)重要。

2.4 批判理論視角:價值負(fù)載且可控

將批判理論應(yīng)用于人工智能(AI),意味著對AI系統(tǒng)的社會、政治與經(jīng)濟意涵進行細(xì)致而深刻的審視。該進路植根于20世紀(jì)早中期興起于法蘭克福學(xué)派的批判理論傳統(tǒng),旨在揭示并批判嵌入AI技術(shù)中的權(quán)力結(jié)構(gòu)、社會規(guī)范與意識形態(tài)(How, 2017;Bilgin, 2023)。

批判理論主張:技術(shù)并非中立,而是映射并強化既有的權(quán)力關(guān)系、偏見與不平等(Feenberg, 1991;Lindgren, 2023)。由此延伸,當(dāng)以批判視角審視AI的設(shè)計、部署與社會影響時,理論家致力于揭露隱含預(yù)設(shè)、挑戰(zhàn)壓迫性結(jié)構(gòu),并倡導(dǎo)更公平、更正義的技術(shù)發(fā)展路徑。該視角強調(diào):必須提升社會意識、納入倫理考量,并積極推動多元聲音參與AI系統(tǒng)的塑造,以減少潛在危害,構(gòu)建更具包容性與民主性的技術(shù)生態(tài)。

批判理論指出:AI本質(zhì)上是價值負(fù)載的,因其與主流社會價值觀、規(guī)范及權(quán)力結(jié)構(gòu)緊密交織(Waelen, 2022)。AI技術(shù)的研發(fā)與實施深受其創(chuàng)造者群體的立場、利益與偏見所影響。用于訓(xùn)練AI系統(tǒng)的算法與數(shù)據(jù)集,往往映射著社會固有的偏見與不平等,從而延續(xù)甚至放大既有價值體系。此外,關(guān)于“AI應(yīng)解決何種問題”以及“應(yīng)如何運作”的決策,亦由主導(dǎo)其發(fā)展的個人與機構(gòu)的價值取向與優(yōu)先事項所塑造。簡言之,批判理論強調(diào):AI系統(tǒng)所承載的價值,與其被構(gòu)想和部署的社會—政治語境高度一致,因而既可能強化、也可能挑戰(zhàn)既有規(guī)范與權(quán)力關(guān)系(Berry, 2015;Lindgren, 2023)。

盡管批判理論堅持AI內(nèi)在具有價值負(fù)載性,但它并不主張AI在原則上不可控;相反,它承認(rèn):對AI系統(tǒng)的控制取決于有意識的干預(yù)與系統(tǒng)性變革。批判理論家倡導(dǎo)一種參與式、民主化的AI研發(fā)與治理路徑——在其中,多元的聲音與視角共同參與決策過程。通過在AI的研發(fā)與應(yīng)用中促進透明性、問責(zé)性與包容性,人類便有可能對嵌入系統(tǒng)中的價值施加一定程度的引導(dǎo)與修正。其核心理念在于:經(jīng)由批判性反思、倫理考量與包容性實踐,我們能夠影響AI的發(fā)展軌跡,緩解有偏價值所帶來的負(fù)面效應(yīng),從而在契合社會公共價值的前提下,切實提升對AI的可控性。

下表1簡明概括了工具主義、決定論、實體主義與批判理論在人工智能語境下的哲學(xué)立場。各視角對AI可控性及AI系統(tǒng)是否具有內(nèi)在價值的立場,分別以“Y”(是)和“N”(否)標(biāo)示。


在梳理這些哲學(xué)立場的復(fù)雜內(nèi)涵之際,我們得以深入理解關(guān)于AI本質(zhì)、人類對其可控程度,以及可能內(nèi)嵌于或受這些技術(shù)實體影響的價值觀念的多元主張。這些視角共同構(gòu)成了一幅全面圖景,呈現(xiàn)了塑造我們對“人–AI關(guān)系”認(rèn)知的哲學(xué)框架體系。下一部分將在我們核心關(guān)切——倫理的自動化(the automation of ethics)——這一語境下,對上述理論展開評估。此一探究由“公平”“正義”“良善”等精細(xì)概念所觸發(fā),進而引向一項關(guān)鍵反思:是否可能、以及在何種意義上,可賦予AI系統(tǒng)以理解、適應(yīng)并參與人類實踐與經(jīng)驗之動態(tài)文化復(fù)雜性的能力(Birhane 等,2022;Munn,2023)。

2.5 四種哲學(xué)立場在“自動化模糊性”問題上的評估

工具主義、決定論、實體主義與批判理論這四種視角,為理解人工智能、價值與可控性三者之間的關(guān)系提供了各具特色的分析透鏡。下表2對這四種立場各自的優(yōu)勢與局限進行了批判性評析:


工具主義主張AI具有價值中立性,將其視作一種中性工具,其倫理意涵取決于使用方式。盡管它強調(diào)可控性,但潛在不足在于可能忽視其應(yīng)用過程中所嵌入的價值。決定論認(rèn)為AI不可控,其行為由算法決定而具有可預(yù)測性;它承認(rèn)算法中蘊含內(nèi)在道德價值,但可能低估人為干預(yù)與控制的潛力。實體主義主張AI既不可控又價值負(fù)載,認(rèn)為其擁有一種獨立于外部影響的固有本質(zhì);此觀點在使AI適應(yīng)不斷演化的倫理標(biāo)準(zhǔn)方面可能面臨挑戰(zhàn)。批判理論則認(rèn)為AI雖價值負(fù)載,卻強調(diào)可通過包容性、參與式的路徑實現(xiàn)對其控制;它倡導(dǎo)積極干預(yù)與系統(tǒng)性變革,以推動合乎倫理的AI發(fā)展。

關(guān)于AI中“模糊性”的自動化問題,批判理論尤為突出。通過倡導(dǎo)多元視角與社會公眾的積極參與,該理論為承認(rèn)并應(yīng)對AI系統(tǒng)中的模糊性提供了可能。此立場契合一種理念:可控性意味著持續(xù)的參與與調(diào)適,因而特別適于處理AI所涉及的精細(xì)而模糊的倫理維度。

批判理論承認(rèn)“公平”“正義”“良善”等倫理概念所具有的精細(xì)性與主觀性;它超越了決定論或工具主義視角,深刻理解到:這些倫理考量深深植根于動態(tài)的、文化情境化的人類實踐、互動與經(jīng)驗之中。通過倡導(dǎo)包容性與參與式路徑,將多元利益相關(guān)者納入AI倫理發(fā)展的全過程,批判理論促進了協(xié)作,并推動與不同觀點的對話,從而有助于更全面地把握復(fù)雜的倫理圖景。該路徑亦契合如下認(rèn)知:倫理價值并非固定不變,而是隨時間演進,反映社會現(xiàn)象學(xué)層面的變遷(Mickunas & Pilotta, 2023)。

綜上所述,批判理論通過推動持續(xù)反思、適應(yīng)性與對AI動態(tài)倫理維度的回應(yīng)能力,提供了一種獨特的視角。這與將AI刻畫為僵化且不可控的決定論觀點形成鮮明對比。本質(zhì)上,批判理論倡導(dǎo)一種具有社會意識、參與性且靈活的AI倫理自動化路徑,承認(rèn)技術(shù)與人類多元現(xiàn)象學(xué)經(jīng)驗之間錯綜復(fù)雜的相互作用。這一觀點使我們得以理解:不同群體與個體,基于其在社會權(quán)力結(jié)構(gòu)中的具身化位置(embodied position;Newen, De Bruin & Gallagher, 2018),如何被獨特地影響,并如何以差異化的方式為AI設(shè)計與開發(fā)中的意義建構(gòu)作出貢獻。因此,這種影響的多樣性直接塑造著文化實踐、知識與文化敘事的持續(xù)建構(gòu),最終決定著人們能否在數(shù)字未來中包容性地行使能動性(inclusive exercising of agency in digital destinies)。

  1. 對AI的“問題化”:究竟是什么導(dǎo)致了人們對AI“失控”的感知?

AI倫理中的每一種立場,都為我們理解AI所帶來的挑戰(zhàn)提供了獨特洞見。然而,當(dāng)我們嚴(yán)肅而批判性地審視“AI失控”這一主張時,一個關(guān)鍵面向浮現(xiàn)出來:它遠(yuǎn)不止于一種描述性陳述?!癆I失控”這一說法固然試圖揭示新興技術(shù)的某些事實——例如報告其當(dāng)前發(fā)展階段,以及它對我們生活產(chǎn)生的現(xiàn)實與潛在影響;但更重要的是,該主張本身即具評價性(evaluative)。它是一種對AI在當(dāng)下歷史節(jié)點之存在的判斷,并旨在評估其所帶來的潛在社會文化風(fēng)險。在此意義上,宣稱“AI失控”,即是將其建構(gòu)為一個問題(cast it as a problem)。

正如本節(jié)將要闡明的:將AI“問題化”(problematizing AI),使我們得以揭示那些參與制造此類敘事的社會力量——它們?nèi)绾瓮ㄟ^批判理論的視角,塑造我們對AI的規(guī)范性反思,并限定我們眼中哪些路徑才算是實現(xiàn)控制、秩序與矯正的“正當(dāng)”方式。

3.1 論“問題”

人們或許習(xí)以為常地假設(shè):“問題”獨立于那些識別它們的主體而存在——即,某一問題的存在與否,并不取決于它是否被如此感知。例如,我們可能認(rèn)為:氣候變化是一個問題,即便有不良行為者竭力試圖說服我們相反的結(jié)論。

與此相對的,是一種更為徹底的社會性問題觀:它強調(diào),使某事物成為“問題”(或被視為“問題”)的,正是特定的社會實踐。這正是米歇爾·??拢∕ichel Foucault)所稱的問題化(problematization)。對福柯而言,“問題”與其他諸多社會生活現(xiàn)象并無本質(zhì)不同——以這種方式被感知的“問題”,背后皆有其歷史敘事。“某事之所以成為一個問題,乃因其被刻畫、分析并如此對待”(Foucault, 1988)。

需強調(diào)的是,??碌哪康牟⒎欠裾J(rèn):世界上某些現(xiàn)象在“心智獨立”意義上確屬棘手或具爭議性——例如,無論我們是否在意,氣候變化無疑是一嚴(yán)峻現(xiàn)實。他的關(guān)切在于:我們將某事“視為問題”這一行為本身,已攜帶著特定預(yù)設(shè)。當(dāng)我們把某事物表征為一個問題時,我們已在隱含地傳達關(guān)于該思想對象之本質(zhì)的理解,以及我們自身主體性(即“我們作為何種人”)與該問題之間的關(guān)系。這概念雖抽象,但可通過實例加以闡明。

??聦W(xué)派學(xué)者主張:“問題”是社會實踐的產(chǎn)物,而非行動者有意識地界定某事物為問題的結(jié)果(Bacchi, 2015)。最著名的例證是福柯關(guān)于“瘋狂”(madness)的研究(1961/2006)。所謂“瘋癲者”曾長期被以排斥方式對待——他們被逐出社會,最終被納入醫(yī)學(xué)話語體系;而該話語體系偏愛特定類型的心智模式,視其他為異常。這種醫(yī)學(xué)話語支持將“瘋?cè)恕笔杖萦诰癫≡海瑢⑵湓O(shè)定為醫(yī)學(xué)干預(yù)的恰當(dāng)對象,并將其建構(gòu)為有待治療矯正的“偏差者”。這些獨特實踐揭示了“瘋狂”是如何被問題化的:即“發(fā)瘋”如何被視作一個問題,以及該問題被認(rèn)為應(yīng)以何種方式“解決”。此外,通過這些實踐對問題的表述,某種特定的主體性亦被建構(gòu)出來:“瘋?cè)恕庇纱吮簧a(chǎn)為存在的對象,成為醫(yī)學(xué)知識的客體——他們成了我們必須理解、修復(fù),并用以保護“正常人”的“他者”。此種人的建構(gòu),通過嵌入醫(yī)學(xué)語境(如《精神障礙診斷與統(tǒng)計手冊》第五版,DSM-5中對精神疾病的界定)而趨于穩(wěn)固。這表明:問題化不僅制造“問題”,本身亦是一種“造人”實踐(people-making practice)。

之所以值得對“問題化”過程進行反思,關(guān)鍵在于它對認(rèn)知行為的文化塑造具有深刻影響——包括我們的行動動機與理由、習(xí)慣與情感傾向等。這一觀點曾由波伏娃(Beauvoir, 1962)與安斯康姆(Anscombe, 2000)予以辯護,近年亦在具身認(rèn)知科學(xué)領(lǐng)域得到深入探討(Hutto, 2012;Varela, Thompson & Rosch, 2017;Newen, De Bruin & Gallagher, 2018)。

將某事物視為某種特定類型的“問題”,會對其對象的理解產(chǎn)生如下偏向性效應(yīng)(biasing effects):(1)聚焦我們的注意力;(2)引導(dǎo)我們的探究路徑;(3)塑造我們的解釋方式;(4)結(jié)構(gòu)化我們的推理過程;(5)依據(jù)我們所感知的顯著性與合意性,組織我們的行動選項(Jones, 2019, p. 4)。

例如,若將氣候變化界定為“人為的”(anthropogenic),那么問題顯然便聚焦于人類——我們成了分析的核心,即“問題所在”。進而,這種聚焦促使我們反思:我們究竟如何成為問題?又能做些什么加以糾正?從而形塑了我們的探究路徑。

然而,這一過程可能被某些利益集團所“劫持”。為保護其利潤底線,責(zé)任并未歸于溫室氣體排放的主要責(zé)任方(如大型企業(yè)),而是轉(zhuǎn)向一種個體層面的問題化:即,作為能動主體的“我們”才是問題所在——源于我們?nèi)粘q{車、乘機、食肉、忘關(guān)燈等行為。這種框架塑造了對問題的解釋:即“人為性”僅被理解為個體消費者行為所致,而完全忽視了制約個體行動可能性的結(jié)構(gòu)性條件。

由此,推理過程亦被結(jié)構(gòu)化:若個體消費者是人為氣候變化的根源,則個體消費者即為問題;而若個體消費者是問題,那么個體消費者便必須是解決方案。

最終,這限定了我們的行動選項:作為個體消費者,我們必須為保護宜居地球承擔(dān)責(zé)任——我們必須減少飛行與駕車,或至少以某種方式抵消碳排放;我們必須購買太陽能板、隨手關(guān)燈;我們必須減少肉類攝入等(Montgomery & Hipólito, 2023)。值得注意的是,這種思維方式與問題解釋,天然導(dǎo)向市場化解決方案(如碳補償、綠色消費),而非通過對大型企業(yè)實施監(jiān)管(例如征收碳稅或建立排放交易體系)來應(yīng)對危機。

簡言之,此類話語將特定主體性自然化(reifies particular subjectivities):它把個體消費者建構(gòu)為“有待解決的問題”,卻遮蔽了最具實質(zhì)影響力的行動主體。

3.2 AI的問題化及其社會力量

回到本文所聚焦的具體議題:關(guān)于“AI問題”的當(dāng)下認(rèn)知格局,我們能從中獲得何種洞見?如前所述,當(dāng)代關(guān)于AI的 discourse 中充斥著“AI失控”的論斷。最典型的例證莫過于近期一封公開信——呼吁暫停巨型AI實驗六個月,該信由埃隆·馬斯克(Elon Musk)、史蒂夫·沃茲尼亞克(Steve Wozniak)和尤瓦爾·赫拉利(Yuval Noah Harari)等人簽署;馬斯克本人甚至將現(xiàn)代AI的興起形容為“召喚惡魔”。不難看出,AI在此類話語中已被明確問題化:AI之“問題”即控制問題;更確切地說,是AI在多大程度上已——或正日益——超出人類掌控的問題。

關(guān)鍵問題是:誰是這一“問題化”過程的主要推動者?如前所述,對??聦W(xué)派而言,問題化是社會實踐的產(chǎn)物。多種社會實踐正發(fā)揮作用——通常是對物質(zhì)性(權(quán)力)條件的回應(yīng)——共同促成了將AI刻畫為“失控”的敘事。

3.2.1 物質(zhì)性

首先,生成式人工智能(GenAI)正日益生成深刻滲透日常生活的有意義內(nèi)容,例如大型語言模型(LLMs),以及用于社交媒體平臺(如TikTok)內(nèi)容個性化推薦的技術(shù)。然而,GenAI生成內(nèi)容的能力受限于其決策過程的不透明性——這通常被稱為可解釋性問題(xAI)、AI決策的“黑箱”問題(Xu 等,2019;Carabantes,2020;Minh 等,2022;Albarracin 等,2023;Dwivedi 等,2023)。本質(zhì)上,開發(fā)者與研究者面臨的核心困境在于:無法闡明或完全理解AI系統(tǒng)在生成具體輸出時所依賴的價值取向或變量。換言之,我們尚不(或無法完全)理解某一輸出是如何產(chǎn)生的。

當(dāng)然,實踐中存在一定程度的可理解性——足以使用戶(如社交媒體使用者)對算法生成內(nèi)容施加某種控制。這一點從用戶普遍發(fā)展出“算法關(guān)系”(algorithmic relationships)可見一斑:他們通過特定互動方式“調(diào)?!彼惴ǎ苑€(wěn)定生成其所期望的內(nèi)容(并可選擇跳過不感興趣內(nèi)容)。而這一切,恰是在對“黑箱”內(nèi)部運作機制缺乏徹底認(rèn)知的前提下實現(xiàn)的。

AI技術(shù)普遍存在的操作性不透明,使其極易被表征為“失控”。倘若人對AI擁有“控制”,則意味著其理解:在何種條件下,操控AI內(nèi)部某些要素即可可靠地產(chǎn)生預(yù)期輸出。若缺乏此種理解,則除徹底棄用該技術(shù)外,人類幾無有效控制手段。因此,鑒于當(dāng)前AI技術(shù)仍屬“黑箱”,人類尚無法實現(xiàn)控制——且受制于認(rèn)知能力的固有局限,這種控制可能永遠(yuǎn)無法達成。由此引發(fā)合理憂慮:若將AI技術(shù)投入使用,其社會后果或許根本不可知;其非預(yù)期后果可能偏離乃至背離我們的目標(biāo),更甚者,在長遠(yuǎn)中對人類造成傷害。

然而,必須區(qū)分“完全失控”與“未達完全控制”。未能徹底把握AI運作機制,并不意味著我們對其運作全然無知。我們或許無法完全理解某算法的全部過程,但仍有足夠控制力可對其設(shè)計、使用與輸出施加塑造——例如:有意識地設(shè)計算法以顛覆性別規(guī)范(Hipólito, Winkle & Lie, 2023),或賦能代表性不足的社會群體(Birhane 等,2021;Birhane,2022)。

這種控制可體現(xiàn)為:主動退出使用,或通過監(jiān)管干預(yù)其設(shè)計與部署。盡管這并未涉及對AI“黑箱”內(nèi)部過程的直接操控,但它清晰表明:在回應(yīng)物質(zhì)條件的社會協(xié)同實踐層面,控制實則可行?!笆Э亍睌⑹虑∏≌诒瘟薃I實際上可被控制的程度。

然而,遺留的問題是:當(dāng)前可用的控制程度,是否足以證成將AI大規(guī)模嵌入日常生活?換言之,我們能否對AI的長期輸出抱有足夠信心,從而將其“釋放于野”?對此并無普適答案。AI技術(shù)形態(tài)多樣,其可控性高度依賴具體技術(shù)類型及其應(yīng)用領(lǐng)域(例如社交媒體平臺算法 vs. 大型語言模型)。因此,圍繞AI的規(guī)范性問題必然是情境依賴的;對AI在所有領(lǐng)域中的可控性持一概而論的懷疑態(tài)度,實屬不當(dāng)(Birhane,2021;Munn,2023)。

3.2.2 隱蔽的權(quán)力關(guān)系

各類不平等深刻影響著AI的存在方式及其被建構(gòu)為“問題”的過程。事實并非如此:即社會各群體通過審議性、參與式的民主程序,共同商討諸如ChatGPT是否應(yīng)被引入社會生活各領(lǐng)域——尤其是教育系統(tǒng)——的問題。相反,AI的生產(chǎn)者往往持有特定利益訴求,通常以利潤為驅(qū)動——此即所謂市場驅(qū)動型創(chuàng)新(market-driven innovation;Chaston, 2017)。普遍存在的經(jīng)濟不平等,在決定“誰有權(quán)主導(dǎo)AI技術(shù)的創(chuàng)造”以及“技術(shù)在多大范圍內(nèi)被普及”方面起著至關(guān)重要的作用(Birhane 等,2022)。這種不平等不僅源于富裕家庭憑借繼承財富獲得投資技術(shù)(如馬斯克)的先機,更源于教育成果分配不均——某些群體(因性別、種族等結(jié)構(gòu)性障礙)被系統(tǒng)性推入或排斥于科技行業(yè)之外(Eynon, 2024)。

此類不平等導(dǎo)致科技行業(yè)中特定聲音與視角被過度代表,從而產(chǎn)生整體性的“詮釋學(xué)效應(yīng)”(hermeneutical effect)。其一表現(xiàn)為:AI技術(shù)研發(fā)中偏見風(fēng)險顯著升高(Broussard, 2023;Miric, Yin & Fehder, 2023;Tellhed 等,2023)。然而,對我們而言尤為關(guān)鍵的詮釋學(xué)效應(yīng)在于:AI相關(guān)敘事的建構(gòu)權(quán)分配不均。設(shè)問:圍繞AI技術(shù)的敘事建構(gòu),是否在全社會范圍內(nèi)均衡分布?答案顯然是否定的。

例如,“AI是否對人類‘有用’”這一問題的答案,并非經(jīng)由公共理性辯論得出,而是由具有盈利動機的群體通過廣告宣傳與市場支配地位向我們“兜售”的。這揭示了社會動態(tài)層面的隱蔽權(quán)力關(guān)系:不僅AI技術(shù)由少數(shù)特權(quán)群體制造與維系;更重要的是,這些特權(quán)者從根本上塑造了我們應(yīng)如何思考AI——尤其是如何將其視為一個問題

這一核心思想在“無知認(rèn)識論”(epistemologies of ignorance)框架中得到了最佳表述(Sullivan & Tuana, 2007)。無知往往并非單純的知識偶然缺失;相反,它是特定社會實踐與制度有意建構(gòu)并維系的結(jié)果。這意味著:認(rèn)知缺失并不僅僅源于個體在求知德性上的失??;而是其所處的社會環(huán)境,使某些認(rèn)知方式變得廣泛可及且被賦予權(quán)威地位,進而鞏固了既有秩序。

例如,查爾斯·米爾斯(Charles Mills, 2007)提出的“白人無知”(white ignorance)概念,指的是一種認(rèn)知結(jié)構(gòu):它被設(shè)計為僅使特定經(jīng)驗——即白人的經(jīng)驗——具備公共可理解性;而其他群體的經(jīng)驗則被遮蔽或普遍忽視。這種無知具有深遠(yuǎn)的社會后果。

在澳大利亞,存在一種主流敘事:該國僅在250年前“被發(fā)現(xiàn)”,此說法構(gòu)成了民族自豪感的基礎(chǔ)。然而,這一敘事刻意無視了一個事實:原住民已在澳洲大陸生活了約六萬年(Rademaker & Rowse, 2020)。泰勒與哈比比斯(Taylor & Habibis, 2020)強調(diào),“白人無知”對種族關(guān)系具有關(guān)鍵影響,并在延續(xù)原住民弱勢地位中扮演核心角色。他們基于對達爾文地區(qū)44位原住民所進行的180次深度訪談,揭示了原住民對白人澳大利亞人在歷史、法律、文化及語言等方面普遍無知的切身感知——這挑戰(zhàn)了關(guān)于“誰的無知需被糾正,方能推進民族和解、正義與平等目標(biāo)”的既有預(yù)設(shè)。

忽視這一事實對白人澳大利亞人的自我認(rèn)同至關(guān)重要:畢竟,若承認(rèn)自身屬于一個實施種族滅絕的殖民者譜系,將嚴(yán)重?fù)p害其驕傲的自我評價。而一旦正視該事實,則必然須接受其重要的規(guī)范性意涵:正義要求我們回應(yīng)歷史性的壓迫。因此,人們有系統(tǒng)性偏好的理由,去維系并投資于這一無知的白人敘事。

由于白人在塑造人類存在之?dāng)⑹路矫嬲莆崭髾?quán)力,而AI作為人類存在的產(chǎn)物,其敘事控制權(quán)亦必然不均等地分配。那么,究竟是誰在建構(gòu)“AI失控”這一敘事?回看本文開篇所引例證便不難察覺:

  • “人工智能是否正在失控?”(《衛(wèi)報》,2023)
  • “AI正失控,并造成代際鴻溝”(《商業(yè)內(nèi)幕》,2023)
  • “如何解決‘失控AI’這類問題?”(《麻省理工科技評論》,2023)——主導(dǎo)此類敘事的,正是西方主流媒體

普通的AI使用者往往無機會自主建構(gòu)關(guān)于AI的敘事。部分原因在于:要全面理解AI,對外部人士而言實屬艱巨任務(wù)——它橫跨多重學(xué)科與技術(shù)領(lǐng)域,即便對密切追蹤其發(fā)展者而言亦極具挑戰(zhàn)。正因如此,大眾不得不從其所認(rèn)定的“可靠信源”處繼承(inherit)關(guān)于AI的敘事。然而,對“信源可靠性”的判斷本身,亦是不公正權(quán)力關(guān)系運作的場域。一個信源或許具備標(biāo)示可信性與專業(yè)性的“指標(biāo)特征”(indicator-properties),但這些表征未必真實對應(yīng)其可信與勝任(Fricker, 1999;Myllylahti & Treadwell, 2022)。

以新聞廣播網(wǎng)絡(luò)為例:它們曾(被視作)全球時事信息之可靠性巔峰,其權(quán)威植根于(被認(rèn)定的)新聞職業(yè)操守美德。然而,盡管職業(yè)操守始終與經(jīng)濟利益存在張力,在意識形態(tài)壓力下,經(jīng)濟利益已愈發(fā)占據(jù)主導(dǎo)——目標(biāo)日益轉(zhuǎn)向提升收視率,而真實性則退居次要。如今,新聞播報常迎合不同政治陣營,如美國的??怂剐侣劊‵ox News)或CNN;其中部分媒體持續(xù)傳播錯誤信息(misinformation)、虛假信息(disinformation)與惡意信息(malinformation)(Asano, Tago & Tanaka, 2023)。

此類操作之所以有效,部分正源于其歷史積淀所賦予的“可信、專業(yè)”公眾印象。而“表征可信性”與“實質(zhì)可信性”之間的錯位,恰是結(jié)構(gòu)性無知得以建構(gòu)、權(quán)力得以維系的關(guān)鍵機制之一(Roslyng & Dindler, 2023)。

至于“AI失控”敘事是否同樣受此類邏輯驅(qū)動,尚存爭議(Beer, 2022)——即:當(dāng)前AI技術(shù)的“問題化”是否確由資本利益所驅(qū)動,并非一個顯而易見的問題。我們傾向于認(rèn)為答案是肯定的,但本文暫無余裕深入探討。然而,我們堅信這是值得后續(xù)追索的重要議題。

此外,關(guān)于該敘事的廣泛流行,另有一關(guān)鍵點可從批判理論視角加以闡明:AI并非如主流媒體所呈現(xiàn)的那樣——作為“獨立于人類的實體”而失控。因此,我們這個時代真正緊要的問題是:為何此敘事竟成為主導(dǎo)?

部分原因或許在于:報道所謂“不可控AI問題”的媒體機構(gòu),借由發(fā)出“AI失控”警報,即可標(biāo)榜自身具備“可信性與專業(yè)性”,卻無需真正履行對AI可控性問題的審慎分析義務(wù)。此處并非指控這些媒體在蓄意撒謊(Hawkman & Diem, 2022),而是指出其在“盡職調(diào)查”層面存在系統(tǒng)性缺失。其成因可能包括:既得利益驅(qū)動、收視率維系與增長壓力、 sensationalism(聳動渲染)、恐慌文化蔓延,以及認(rèn)知誤解等。

無論具體原因為何,顯而易見的是:AI敘事的傳播權(quán)高度集中于這些媒體機構(gòu)手中——而這一權(quán)力,盡管已催生“虛擬大規(guī)模虛假信息、算法暴行與合成式宣傳”(Garon, 2022),卻既未被負(fù)責(zé)任地行使,亦未受到有效問責(zé)。

3.3 為何“失控”式的問題化本身即構(gòu)成一個問題?

問題不僅在于不公正的權(quán)力結(jié)構(gòu)本身。當(dāng)媒體機構(gòu)傳播一種缺乏正當(dāng)依據(jù)的問題化敘事時,它會引發(fā)廣泛而系統(tǒng)性的無知(Nguyen, D., 2023;Weiser & von Krogh, 2023)。公眾消費并內(nèi)化這一敘事;經(jīng)由文化習(xí)得(enculturation)過程,該敘事進而塑造日常思維,并產(chǎn)出生理認(rèn)知與情感層面的特定后果(Fingerhut, 2021;Menary & Gillett, 2022;Miyahara & Tanaka, 2023)。

重申前文:問題化敘事具有五重偏向性效應(yīng)——(1)聚焦我們的注意力;(2)引導(dǎo)我們的探究路徑;(3)塑造我們的解釋方式;(4)結(jié)構(gòu)化我們的推理;(5)依據(jù)我們所感知的顯著性與合意性,組織行動選項。

而當(dāng)這一機制被施加于一種缺乏理據(jù)的問題化敘事時,其后果是:我們錯失了關(guān)注真正具有社會相關(guān)性議題的機會,無法探入富有成果的研究方向,難以形成有益的解釋,難以作出正確推論,亦無法拓展更具建設(shè)性的行動可能性。以下將此分析具體運用于“AI失控”敘事:

(1)注意力聚焦:“失控”敘事以特定方式引導(dǎo)我們關(guān)注AI——它使技術(shù)本身(而非技術(shù)所嵌入的社會世界)成為我們(誤)理解的焦點。由此,我們被引向一種技術(shù)決定論式的AI解讀:仿佛AI自行其是,而人類幾乎無力阻止。若再疊加實體主義視角,敘事更顯“豐富”:AI不僅在決定論意義上不可控,更被賦予內(nèi)在價值(甚至可能是我們應(yīng)當(dāng)加以保護的價值)。

(2)探究方向引導(dǎo):該敘事框定了我們的研究進路——分析起點即預(yù)設(shè)了AI的決定論屬性,從而遮蔽了AI中本可控制的面向。我們的問題意識被鎖定在“AI為何失控?”(及其價值意涵)之上。

(3)解釋框架塑造:在此前提下,我們更易采納某些特定解釋:傾向于對AI在人類世界中的角色持警報式悲觀主義立場。此類解釋可能包括:→ 預(yù)言一種本意助人、卻因超人類智能而終致人類毀滅的全自主AI;→ 或較溫和版本:AI必然傳播虛假信息、侵蝕消費者隱私、或全面自動化勞動崗位。

(4)恐慌文化:上述警報性與悲觀性解釋進一步結(jié)構(gòu)化我們的推理。假設(shè)我們將AI理解為一種決定論技術(shù)(即獨立于人類的實體),其發(fā)展終點似乎不可避免地導(dǎo)向?qū)θ祟悆r值與實踐的顛覆,乃至文明存續(xù)風(fēng)險——那么,我們便必須“立即行動,加以阻止”。然而,恐慌文化反而將我們推入困惑與絕望之境:它不僅宣稱“這是個問題”,更將其升格為“當(dāng)今人類面臨的最嚴(yán)峻挑戰(zhàn)——如果不是最嚴(yán)峻者”。

(5)行動選項組織:當(dāng)此事被建構(gòu)為“人類亟須立即應(yīng)對的最大問題”時,我們的行動選項便被按“合意性”重新排序。技術(shù)決定論解讀及其所渲染的威脅,導(dǎo)向如下政策主張:→ 必須暫停AI研發(fā);→ 或?qū)ζ鋭?chuàng)造過程與社會嵌入實施嚴(yán)厲監(jiān)管。

——這些方案看似“緊迫而必要”,實則可能轉(zhuǎn)移了真正關(guān)鍵的監(jiān)管焦點:即誰在控制AI?依據(jù)何種價值?如何通過民主參與重構(gòu)控制權(quán)?換言之,“失控”敘事通過制造技術(shù)奇點式的恐慌,掩蓋了現(xiàn)實中的權(quán)力失衡與制度缺位,從而阻礙了更具結(jié)構(gòu)性、公平性與參與性的治理路徑之生成。

我們需強調(diào):前述(5)中所列舉的應(yīng)對方案(如暫停研發(fā)、加強監(jiān)管)本身未必不當(dāng);我們關(guān)切的是——此類方案是如何被推導(dǎo)出來的。其間存在一種奇特的張力,近乎邏輯不一致:一邊宣稱“AI已失控”,一邊卻提出諸如暫?;虮O(jiān)管等預(yù)防性對策。倘若AI果真失控,那么暫?;虮O(jiān)管其發(fā)展豈非徒勞?我們認(rèn)為,這種矛盾恰恰揭示了“圍繞AI的焦慮表達”與“控制權(quán)政治”之間的深層關(guān)系。

問題并不在于科技行業(yè)真正接受了“AI失控”這一命題;而在于,該敘事正被強力植入公共話語,以服務(wù)于一個目的:正當(dāng)化“誰應(yīng)當(dāng)掌控AI”這一權(quán)力分配。重申一點:普通公眾對AI運作機制知之甚少;除在某些情境下選擇是否使用外,他們在AI開發(fā)中幾無實質(zhì)控制權(quán)。而當(dāng)AI被同時呈現(xiàn)為:① 人類演進進程中“不可避免”的組成部分,② 卻又構(gòu)成“生存性威脅”——便自然催生一種緊迫感:我們必須“掌控它”。鑒于普通用戶既不了解其原理,又無法參與其創(chuàng)造,這一邏輯便導(dǎo)向一個結(jié)論:我們必須將控制權(quán)外包給他人。由此引發(fā)各方對控制權(quán)的爭奪——而誰比那些自詡為“關(guān)切公共道德的科技專家”(如聯(lián)署呼吁暫停巨型AI實驗公開信者)更適合擔(dān)當(dāng)此任呢?

《歐盟人工智能法案》(EU AI Act)被贊譽為迄今最強有力的AI監(jiān)管立法嘗試(Almada & Petit, 2023)。然而,即便如此有力的框架也存在根本缺陷。Novelli 等(2023)批評該法案采用靜態(tài)風(fēng)險分類,可能導(dǎo)致風(fēng)險評估失準(zhǔn)與執(zhí)法低效,尤以不可預(yù)測的通用型AI為甚;Laux 等(2024)則指出其對“可信性”的處理存在重大疏漏——法案將“信任”簡化為“對AI風(fēng)險的可接受性”,暴露了立法框架的關(guān)鍵缺陷。

更明確地說,我們有理由認(rèn)為:“AI失控”敘事很可能被用作某種道德姿態(tài)表演(moral grandstanding):其真實意圖是——在向政府機構(gòu)讓渡部分權(quán)力的同時,為科技行業(yè)持續(xù)掌控AI主導(dǎo)權(quán)提供正當(dāng)性辯護。

必須澄清:AI并非真正“失控”——至少在任何堅實的形而上學(xué)意義上皆非如此。相反,AI始終處于控制之中;問題只在于:由誰掌控?

對AI在人類世界中角色的憂慮已浮出水面。為緩解這些憂慮,科技產(chǎn)業(yè)——在部分學(xué)者支持下——努力向公眾證明:其已然擁有的控制權(quán)是正當(dāng)?shù)模覒?yīng)延續(xù)下去。然而,若真存在所謂“AI失控”問題,那也僅在于:AI的控制權(quán)高度集中于少數(shù)特權(quán)群體之手。我們不禁懷疑:當(dāng)前對AI的“問題化”過程,至少部分旨在維系并遮蔽這一權(quán)力失衡結(jié)構(gòu)。

此外,“失控”式解讀還塑造了我們對自身身份的理解:多數(shù)人僅被視為AI的消費者,而非共同創(chuàng)造者;科技專家則被天然賦予開發(fā)主導(dǎo)權(quán)。作為消費者,我們被建構(gòu)為亟需保護的弱勢群體,而非參與民主審議、共同構(gòu)想理想世界的行動主體;科技專家則被賦權(quán)為“公共利益的守望者”。此類主體性建構(gòu),進一步強化了AI研發(fā)與應(yīng)用中的權(quán)力等級制——而這一等級制,遮蔽了諸多本可實現(xiàn)的替代路徑,例如:以更具參與性的方式處理AI相關(guān)的公平、正義與良善問題,將用戶定位為既是消費者,亦是共同創(chuàng)造者

進一步而言,這種“決定論/實體主義”式問題化還會產(chǎn)生一種“遮蔽性詮釋學(xué)效應(yīng)”(overshadowing hermeneutical effect):它淹沒了其他緊迫議題——如種族主義、性別歧視、階級壓迫、氣候變化等——或至少將這些問題強行納入“失控AI”的框架下加以理解。我們不再直面結(jié)構(gòu)性不公的根源(例如:殖民性種族滅絕與土地掠奪所導(dǎo)致的原住民高死亡率),轉(zhuǎn)而聚焦于“自動決策中的種族偏見”。究其原因,在于AI被建構(gòu)為“生存性威脅”,而此類威脅被賦予更高優(yōu)先級——相較而言,“將土地歸還給被不義剝奪者”便顯得次要,因它不直接關(guān)乎白人的生存。令人憂慮的是:在為科技行業(yè)掌控AI開發(fā)權(quán)尋求正當(dāng)性的過程中,該敘事整體上重新框定了普通人眼中“當(dāng)今人類最緊迫問題”之清單。我們不禁擔(dān)憂:這將如何影響認(rèn)知資源、情感能量與經(jīng)濟投入的分配?——這些資源本應(yīng)用于深入?yún)⑴c并解決一切緊迫的公平、正義與良善議題,而遠(yuǎn)不止AI本身。

  1. 系統(tǒng)內(nèi)部的控制難題

批判理論揭示:人工智能(AI)實際上是可以被控制的,但我們卻被引導(dǎo)著相信它無法被控制?!癆I失控”的敘事阻礙了我們對如何真正實現(xiàn)對AI的有意義控制進行反思。那么,我們該如何達到這一認(rèn)知節(jié)點?

控制AI,或使AI控制權(quán)民主化,是一個過于宏大的問題,無法在本文中全面處理。這可能涉及大量重新分配知識與生產(chǎn)機會的行動——將機會賦予那些歷史上被邊緣化或被忽視的群體,而AI的實施對他們而言卻具有深遠(yuǎn)影響。這可能包括:在教育體系中增加邊緣化社群的代表性,而該體系正是培養(yǎng)日后進入AI學(xué)術(shù)研究或相關(guān)技術(shù)領(lǐng)域、從事AI開發(fā)人員的搖籃;可能還包括加強政府對科技公司的監(jiān)管;增加對學(xué)術(shù)界中“AI可控性”研究的財政投入;甚至在更深層次上,將AI“社會化”——將其視為一種公共產(chǎn)品,而非由科技公司私人占有并商品化的對象。我們無意在此解決這些實踐層面的疑問;它們是、并將持續(xù)成為需要一個思想者共同體共同探索的開放性研究課題。

然而,我們希望強調(diào)的是:當(dāng)我們在思考解決方案時,必須首先認(rèn)識到,正是某種被預(yù)設(shè)的“問題化”(problematization)方式,賦予了這些解決方案以特定的框架和表面的正當(dāng)性。這正是批判理論視角所致力于揭示的部分。

系統(tǒng)內(nèi)部的控制難題,不僅關(guān)乎物質(zhì)條件,更關(guān)乎一種公共話語的傳播——即某種特定的問題框架被廣泛散布,導(dǎo)致人們內(nèi)化了關(guān)于AI的不正當(dāng)認(rèn)知方式,接受決定論(Determinism)或?qū)嶓w主義(Substantialism),而非批判理論的視角。因此,與其追問“我們能做些什么來控制AI”,我們認(rèn)為更根本的問題是:“我們能做些什么,使人們認(rèn)識到那種確實可能的AI控制形式?——即透過批判理論的透鏡來看待AI。”唯其如此,我們才可能開啟關(guān)于AI是否真正構(gòu)成人類生存性威脅的新思考路徑,同時也能更充分地認(rèn)識AI在日常生活中可能發(fā)揮的積極角色。換言之,我們必須聚焦于正確的問題,探詢富有成效的領(lǐng)域,做出有用的解釋,形成準(zhǔn)確的推斷,并拓展更具建設(shè)性的行動選項。

我們主張,主流媒體——尤其是高影響力媒體機構(gòu)——在報道AI時必須格外審慎:必須抵制煽動性的敘事,避免渲染AI可能對社會造成的危害及其對人類構(gòu)成的“生存性威脅”所帶來的焦慮。當(dāng)然,這并非意味著AI不值得擔(dān)憂;關(guān)鍵在于:我們必須精準(zhǔn)把握AI究竟在何種意義上成其為問題——而這要求我們將其與“失控”敘事脫鉤。AI的確可能構(gòu)成真實的生存性威脅,但這種威脅并非源于AI“失控”,而恰恰源于它“處于控制之下”——只不過掌控者并非以公共利益為首要動機。有關(guān)AI控制的真實難題在于:其可控性本身仍受制于既有的權(quán)力結(jié)構(gòu)——這些結(jié)構(gòu)正是各種不公的根源;控制權(quán)高度集中于少數(shù)特權(quán)階層之手,而這一事實卻被掩蓋著,并反過來維系著這種權(quán)力結(jié)構(gòu)。

若我們希望建立對AI的民主控制,第一步便是抵制并解構(gòu)當(dāng)下流行的決定論與實體主義(參見第2節(jié))式的“失控”公共敘事。這項工作無法單靠個體層面完成。我們當(dāng)然可以進行某種“二人對話式敘事調(diào)節(jié)”(dyadic narrative-regulation),例如告訴他人:他們將AI理解為在強形而上學(xué)意義上“失控”,實屬錯誤;但尚不清楚這類個體層面的策略能否對集體意識產(chǎn)生實質(zhì)性影響。我們必須依靠集體性與制度性的努力:包括對傳播此類敘事的媒體實施公正監(jiān)管;改革教育體系,使其傳授關(guān)于AI可控性的誠實課程;推動政府定期向公眾通報新興技術(shù)及其潛在影響;并鼓勵有德性的科技公司不再以保護對其商品化產(chǎn)品的控制權(quán)為宗旨。這固然是一項艱巨的任務(wù),但若想真正理解AI在我們當(dāng)下生活中的位置,并使其在我們共同擔(dān)責(zé)的實踐中得以合理嵌入、伴隨人類邁向未來,這一努力實屬必要。

結(jié)論

我們對人工智能(AI)的探討,挑戰(zhàn)了那些將“AI恐慌文化”渲染為AI是一種不可控實體的聳人聽聞之說。本文所引入的理論框架,以“可控性”與“價值負(fù)載性”為核心,厘定了四種截然不同的本體論立場:無價值工具主義(Value-Free Instrumentalism)、決定論(Determinism)、價值負(fù)載的批判理論(Value-Laden Critical Theory)以及實體主義(Substantialism)。我們主張:人們對AI“失控”的感知,并非源于其本身具有某種決定論式的、獨立自存的本質(zhì),而是植根于復(fù)雜的社會—文化權(quán)力動態(tài)之中。

尤為關(guān)鍵的是,我們的論點強調(diào):從原則上講,AI是依賴于心智(mind-dependent)且可被控制的;然而,其“失控”的表象卻與它被構(gòu)想與實施其中的社會—文化語境緊密交織。當(dāng)前系統(tǒng)自身的結(jié)構(gòu)性特征,使掌控AI的努力變得尤為復(fù)雜,因而亟需對該系統(tǒng)本身進行深刻的變革。

當(dāng)我們思考人工智能(AI)的社會影響時,超越?jīng)Q定論與實體主義的視角便顯得尤為緊迫:因其對AI“心智獨立性”的錯誤預(yù)設(shè),阻礙了有效的控制與監(jiān)管措施的實施。本文主張轉(zhuǎn)向一種價值負(fù)載的批判理論(Value-Laden Critical Theory),該視角承認(rèn)社會—文化動態(tài)對AI“可控性”認(rèn)知所產(chǎn)生的深刻影響,并強調(diào)其相應(yīng)的責(zé)任歸屬。我們呼吁包括媒體機構(gòu)、教育系統(tǒng)、政府及科技公司在內(nèi)的各方利益相關(guān)者,共同致力于重構(gòu)圍繞AI的公共敘事。

未來研究的一個潛在方向,是制定相應(yīng)策略,以應(yīng)對媒體中偏頗敘事的廣泛滲透以及AI不受約束的發(fā)展態(tài)勢。這包括:

  • 倡導(dǎo)在媒體平臺內(nèi)部推行公平的監(jiān)管機制,以遏制偏頗敘事的傳播;
  • 將關(guān)于AI可控性的坦誠討論納入教育體系;
  • 確保政府持續(xù)向公眾通報新興技術(shù)的潛在影響;
  • 推動科技公司踐行合乎倫理的實踐,使其優(yōu)先考量透明度與社會福祉,而非一味捍衛(wèi)其商品化產(chǎn)品的私有控制權(quán)。

此類綜合性進路,契合對權(quán)力動態(tài)與社會結(jié)構(gòu)的批判性視角,有助于在技術(shù)演進與傳播過程中,培育一個更具反思意識與責(zé)任擔(dān)當(dāng)?shù)沫h(huán)境。

綜上所述,本研究為未來深入探討AI與社會之間錯綜復(fù)雜的交匯點奠定了基礎(chǔ)。通過持續(xù)挑戰(zhàn)既有范式,并倡導(dǎo)對AI實施更具民主性的控制,我們致力于推動一種未來愿景:在此愿景中,技術(shù)進步得以與人類的知識、文化及敘事和諧共進。

原文鏈接:https://www.researchgate.net/profile/Ines-Hipolito-2/publication/380892710_Beyond_Control_Will_to_Power_in_AI/links/6653d408479366623a164e0f/Beyond-Control-Will-to-Power-in-AI.pdf

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
濱崎步官宣取消澳門演唱會

濱崎步官宣取消澳門演唱會

瀟湘晨報
2025-12-09 19:50:57
中國鐵路蘭州局集團總經(jīng)理姜輝被查

中國鐵路蘭州局集團總經(jīng)理姜輝被查

觀察者網(wǎng)
2025-12-10 17:40:33
勸你一句:少吃外面的飯,真的不太干凈!

勸你一句:少吃外面的飯,真的不太干凈!

新住家居
2025-12-01 22:16:53
始祖鳥平替要上市,毛利率60%,安徽夫婦年入17億

始祖鳥平替要上市,毛利率60%,安徽夫婦年入17億

天下網(wǎng)商
2025-12-10 10:48:20
摩爾線程被套的全部解套,中簽者如果今日賣出,一簽獲利31.8萬!

摩爾線程被套的全部解套,中簽者如果今日賣出,一簽獲利31.8萬!

夜深愛雜談
2025-12-10 20:04:55
能活到85歲的老人,多數(shù)在50歲時,就已經(jīng)不再做這些事了

能活到85歲的老人,多數(shù)在50歲時,就已經(jīng)不再做這些事了

烙任情感
2025-12-09 13:04:12
貝克漢姆一家三口紐約度假亮相 維多利亞 C 位高冷氣場全開

貝克漢姆一家三口紐約度假亮相 維多利亞 C 位高冷氣場全開

述家娛記
2025-12-10 16:37:00
“21萬科06”盤中大漲162.3%

“21萬科06”盤中大漲162.3%

每日經(jīng)濟新聞
2025-12-10 11:45:39
藍(lán)戰(zhàn)非被綁架后續(xù):主謀身份被扒,手段細(xì)思極恐,本人崩潰大哭

藍(lán)戰(zhàn)非被綁架后續(xù):主謀身份被扒,手段細(xì)思極恐,本人崩潰大哭

青梅侃史啊
2025-12-10 09:09:27
負(fù)債百萬、露宿街頭、裝瘋賣傻,星光大道草根歌手現(xiàn)狀太落魄

負(fù)債百萬、露宿街頭、裝瘋賣傻,星光大道草根歌手現(xiàn)狀太落魄

素衣讀史
2025-11-24 17:11:50
上海地中海大叔與29歲女主播愛情,親密合照流出,共同買房引罵戰(zhàn)

上海地中海大叔與29歲女主播愛情,親密合照流出,共同買房引罵戰(zhàn)

老貓觀點
2025-12-10 08:15:55
上有政策,下有對策?親歷電動自行車新國標(biāo)施行后,南京市場亂象

上有政策,下有對策?親歷電動自行車新國標(biāo)施行后,南京市場亂象

周哥一影視
2025-12-10 14:31:53
驚天秘聞!前美軍官爆猛料:至少四種外星人,其中一種與人類雜交

驚天秘聞!前美軍官爆猛料:至少四種外星人,其中一種與人類雜交

Science科學(xué)說
2025-12-10 08:05:03
炸裂!活塞尋求交易濃眉哥!NBA爭冠格局大變天

炸裂!活塞尋求交易濃眉哥!NBA爭冠格局大變天

籃球?qū)崙?zhàn)寶典
2025-12-09 22:44:52
中學(xué)男老師出軌女同事私密聊天記錄曝光,稱女方很刺激

中學(xué)男老師出軌女同事私密聊天記錄曝光,稱女方很刺激

素然追光
2025-12-10 05:30:03
“甩一甩”成歷史!水銀體溫計將被全面禁產(chǎn),專家解讀……

“甩一甩”成歷史!水銀體溫計將被全面禁產(chǎn),專家解讀……

科學(xué)大觀園
2025-12-10 10:38:59
特朗普,突發(fā)!美聯(lián)儲大消息!美股、黃金突變!

特朗普,突發(fā)!美聯(lián)儲大消息!美股、黃金突變!

證券時報e公司
2025-12-10 08:07:20
胡適:女子的貞操不在陰道里

胡適:女子的貞操不在陰道里

尚曦讀史
2025-12-09 09:27:09
河南的雪何時下?暴雪都會下在哪兒?氣象專家最新預(yù)測解讀

河南的雪何時下?暴雪都會下在哪兒?氣象專家最新預(yù)測解讀

大象新聞
2025-12-10 14:30:04
成都一高校內(nèi)驚現(xiàn)“不明生物”?專家:是果子貍,成都多地陸續(xù)發(fā)現(xiàn)

成都一高校內(nèi)驚現(xiàn)“不明生物”?專家:是果子貍,成都多地陸續(xù)發(fā)現(xiàn)

封面新聞
2025-12-10 13:37:02
2025-12-10 21:11:00
CreateAMind incentive-icons
CreateAMind
CreateAMind.agi.top
1053文章數(shù) 17關(guān)注度
往期回顧 全部

科技要聞

防"走私",英偉達被曝開發(fā)“芯片定位”技術(shù)

頭條要聞

琉球歸屬問題被迫擱置 聯(lián)合國從未承認(rèn)"日本擁有主權(quán)"

頭條要聞

琉球歸屬問題被迫擱置 聯(lián)合國從未承認(rèn)"日本擁有主權(quán)"

體育要聞

試訓(xùn)20支球隊,落選,成為NBA新秀助攻王

娛樂要聞

為何網(wǎng)友不再相信張柏芝的“故事”?

財經(jīng)要聞

對話陳志武:特朗普嚴(yán)重誤判中國!

汽車要聞

有動力操控 有智能座艙 6萬多的第五代帝豪掀桌子了

態(tài)度原創(chuàng)

旅游
家居
本地
藝術(shù)
軍事航空

旅游要聞

千城百縣看中國|福建寧化:古村藏韻

家居要聞

高端私宅 理想隱居圣地

本地新聞

打工人夢想中的生活,寵物已經(jīng)提前過上了

藝術(shù)要聞

40張海邊撒野照片,真是太有創(chuàng)意了!

軍事要聞

中俄聯(lián)合空中戰(zhàn)略巡航引日本擔(dān)憂 國防部回應(yīng)

無障礙瀏覽 進入關(guān)懷版 午夜精品视频在线观看| 中文字幕不卡在线播放| 亚洲熟女少妇AP| 无码熟肉不卡AV| 综合91在线精品| 手机看片网一区二区| www.精品视频| 好想被狂躁无码视频在线字幕| 日本不卡影院内射伊人| 国产熟女真实乱精品视频| 四虎国产精品永久在线| Av观看网址| 亚洲av一宅男色影视| 亚洲国产精品一区二区三 | 亚洲宅男网站| 日韩人妻无码一区二区三区久久99| 亚洲国产精品国自产拍av| 国产爆乳网站| 人妻少妇精品久久久久久久久久久久| 日本亚洲色大成网站www久久| 电影 精品一区| 免费毛片视频| √天堂中文www官网在线| 四川少妇bbb凸凸凸bbb| 一区二区三区伦理片| 99re视频热这里只有精品7| 亚洲国产精品精华液com| 两个人的视频高清在线观看免费| 久久综合噜噜激激的五月天| 日韩欧美蜜桃一区二区| 又大又爽又粗国产一区二区三区毛片| 国产av三区| 国产精品成人网站| www.人妻、com| 蜜桃av在线| 亚洲国产日韩欧美一区二区三区| 伊人久久大香线蕉AV五月天宝贝| 算你色国产AV| 亚洲AV秘 无码一区二区三区1 | 中文字幕一区二区三区日韩精品 | 天堂妹子xxxx|