人民日報近日刊發(fā)《如何看待AI"一本正經(jīng)地胡說八道"》的深度觀察,揭示當前大模型普遍存在的"AI幻覺"現(xiàn)象:當處理超出知識儲備的問題時,系統(tǒng)會生成包含虛構(gòu)細節(jié)、錯誤鏈接等失真內(nèi)容。調(diào)研顯示42.2%用戶將"內(nèi)容不準確"列為首要痛點。盡管行業(yè)已采取檢索增強生成、紅藍對抗等技術(shù)手段,但專家普遍認為該問題短期內(nèi)難以根除。值得注意的是,文中關(guān)于AI幻覺可能激發(fā)創(chuàng)造力的觀點,正在輿論場引發(fā)持續(xù)爭議。
當前輿論場已顯現(xiàn)三重風險裂痕:專業(yè)媒體與普通網(wǎng)民對技術(shù)缺陷的認知斷層正在擴大,部分科普賬號將"AI幻覺"簡單類比為人類想象力的言論遭到強烈反彈;技術(shù)樂觀派與審慎派在社交平臺形成陣營化對峙,某大V"AI造謠不算謠"的極端觀點單日轉(zhuǎn)發(fā)破萬;更隱蔽的風險在于,某些自媒體正利用公眾恐慌心理,將個別案例演繹為系統(tǒng)性風險,某財經(jīng)博主"AI正在批量制造假新聞"的不實視頻已獲百萬播放。這些分化現(xiàn)象暴露出當前AI治理面臨的核心矛盾——技術(shù)迭代速度與社會適應能力的嚴重不匹配。
從輿情演變規(guī)律看,此次事件折射出三個維度的認知錯位:首先是技術(shù)認知的"魔法化"傾向,部分廠商宣傳刻意模糊弱人工智能與強人工智能的界限,導致公眾產(chǎn)生不切實際的期待,當AI表現(xiàn)低于預期時便形成強烈反彈。某機構(gòu)調(diào)查顯示,68%受訪者認為AI應具備"完全準確"的能力,這種認知偏差為輿情爆發(fā)埋下伏筆。其次是風險溝通的"兩極分化",要么將技術(shù)缺陷輕描淡寫為"成長煩惱",要么渲染為"失控危機",缺乏基于實證的分級評估體系。最重要的是責任界定的"模糊地帶",當AI生成內(nèi)容造成實際損害時,平臺、開發(fā)者、用戶之間的責任鏈條尚未理清,這種不確定性持續(xù)加劇公眾焦慮。
構(gòu)建AI時代的輿情應對體系,需要建立三層防御機制:在技術(shù)層面,廠商應當建立"缺陷透明"制度,像食品營養(yǎng)標簽那樣明確標注系統(tǒng)的準確率邊界,某醫(yī)療AI企業(yè)主動公開誤診案例的做法值得借鑒;在傳播層面,主流媒體需設立"技術(shù)澄清"專欄,邀請工程師與社科專家聯(lián)合解讀專業(yè)問題,破除"要么神話要么妖魔化"的傳播怪圈;在治理層面,建議網(wǎng)信部門牽頭建立"AI內(nèi)容溯源"平臺,對爭議內(nèi)容實施開發(fā)者、訓練數(shù)據(jù)、生成邏輯的三重備案可查。特別需要警惕的是,要防止輿情處置陷入"技術(shù)萬能主義"陷阱,某地試圖用AI監(jiān)測AI謠言的失敗案例表明,人類智慧在價值判斷領(lǐng)域仍不可替代。
這場討論的真正價值在于推動社會形成技術(shù)認知的新范式。我們應當認識到,AI幻覺就像汽車發(fā)明初期的爆胎事故,既是技術(shù)局限性的體現(xiàn),也是進化必經(jīng)的試錯過程。但不同于機械故障的是,AI內(nèi)容生產(chǎn)直接介入認知領(lǐng)域,這就要求監(jiān)管框架必須具備動態(tài)適應性。荷蘭已試行"AI內(nèi)容風險分級"制度,將醫(yī)療建議等高風險應用與娛樂創(chuàng)作區(qū)別監(jiān)管,這種精細化治理思路頗具參考價值。對普通用戶而言,亟需建立"二次驗證"的思維習慣,就像對待社交媒體信息一樣保持合理懷疑。
(以上分析僅作為輿情案例解讀,供輿評從業(yè)者參考。讓我們以寬容之心看待身邊的事情,營造和諧社會的良好氛圍)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.