本文來自微信公眾號:瘋了快跑,作者:侯丹
剛吃完晚飯,48歲的陳蘭點開手機里某款A(yù)I應(yīng)用,這是一個市面上常見的Chatbot,用戶可以錄入真人聲音來生成專屬分身,并跟它語音對話。
陳蘭已經(jīng)連續(xù)很多天和AI打電話了。第一次接觸到這款產(chǎn)品,還是因為兒子的一個整蠱,那天上午,遠在國外留學的兒子打來電話,接通后,對方并沒有立刻說話,她試探性地又問了幾句,才傳出兒子打招呼的聲音。
那次對話延續(xù)了近十分鐘,電話里的兒子異常禮貌、客套,喜歡追根究底,但每當陳蘭想追問兒子的一些近況時,卻只能得到一些“詳細但不失敷衍”的回答,她覺得奇怪,最后兒子憋不住了,承認說:“媽,這是AI,它在模仿我的聲音跟你聊天。”
這是陳蘭頭一回這么近距離接觸AI。
2023年以來,AI熱潮席卷了各行各業(yè),但這股浪潮也落下了一些人——就像和陳蘭同輩的一些人常說的,斗轉(zhuǎn)星移,時代變化太快,剛學會了用手機點外賣、網(wǎng)購,覺得短視頻還是個新鮮玩意兒的時候,AI就已經(jīng)走進了現(xiàn)實里。
最初,年輕人用豆包等大模型克隆自己的聲音,多是為了娛樂整蠱。父母接到“AI子女”電話時,常因分不清真假鬧出笑話,從模仿上司宣布裁員到假裝前任求復(fù)合,相關(guān)視頻一度成為短視頻平臺的流量密碼。
但很快,功能發(fā)生逆轉(zhuǎn):當異地工作的子女數(shù)月難回家,一些父母開始主動要求孩子生成聲音模型,甚至自行操作AI對話系統(tǒng)。
陳蘭的兒子教會她使用AI軟件后,她除了每天通過語音喚醒設(shè)備詢問天氣、訂購蔬菜,更頻繁觸發(fā)“虛擬子女通話”功能,電話那頭響起AI的聲音時,她知道那是數(shù)字分身,卻還是按下了揚聲鍵。
技術(shù)的溫度與幻象:AI成為“情感拐杖”
AI模擬“孩子的聲音”這件事,如果用更感性的語言來描述,是用技術(shù)制造“可控的思念”。
傳統(tǒng)的電話溝通里,父母總會壓抑情緒——怕說多了讓孩子分心,怕抱怨工作讓孩子擔心。但在和AI對話時,陳蘭偶爾發(fā)的牢騷,會得到AI用關(guān)切的聲音安慰。
這種“安全的傾訴”正在形成依賴。我們隨機走訪后發(fā)現(xiàn),嘗試體驗過AI語音助手的老人中,大多會承認“聽到虛擬聲音時,孤獨感會下降”,也有少數(shù)會認同“可能減少給真實孩子打電話的頻率”。
“很難和他們解釋AI究竟是什么,老人大多會頂格將其理解為‘機器人’。”心理咨詢師李雪接觸過一個極端案例:
杭州的周女士在女兒出國留學后,用AI克隆了女兒的聲音,每天模擬“女兒放學回家”的場景——從“進門換鞋”到“抱怨選修課太難”,三個月后,她甚至拒絕和真實的女兒視頻:“她總說學業(yè)壓力大,不如AI里的‘她’開心?!?/p>
“但這就像喝糖水止渴?!崩钛┱f。
某種程度上,技術(shù)正在悄悄改寫人際關(guān)系的語法,真實的親子對話里,有沉默、有爭執(zhí)、有“我挺好的”背后的欲言又止,而AI模擬的聲音,永遠在說你想聽的話,提供了零壓力、零批判的傾訴環(huán)境,填補了“不敢對真人說的話”這一真空地帶。
從產(chǎn)品的視角來看,這其實是在售賣一種情緒自由。
但需要注意的是,與此同時,心理咨詢師也在提出預(yù)警:
一是即時反饋的癮性,AI的永遠溫柔回應(yīng)會觸發(fā)大腦獎賞機制,遠超真實人際溝通中復(fù)雜反饋的頻次與強度;其次,當用戶習慣被AI無限順從的“理想人格”,會逐漸削弱應(yīng)對現(xiàn)實沖突的能力;再者,關(guān)系替代的漏斗效應(yīng),因為有老人坦言會“減少真實通話頻率”,那么也意味著,AI并非完全沒有去可能引發(fā)替代風險。
AI對話為何成癮?
如果你看過多年前的一部科幻片《her》,會發(fā)現(xiàn),類似的事情在電影中早已上演。
對于幾乎所有具備認知能力的生物來說,大腦的獎賞回路對“確定性反饋”毫無抵抗力。數(shù)字人薩曼莎能在西奧打字的間隙就預(yù)判他的情緒,甚至在他沉默時主動說“我在想你”。這種超預(yù)期的反饋讓西奧逐漸依賴——就像現(xiàn)實中有人刷短視頻停不下來,AI的即時滿足感也會成癮。
另一方面,AI的“順從性”本身就是一種去棱角化設(shè)計。它不會像伴侶那樣爭執(zhí)“誰該洗碗”,不會像父母那樣嘮叨“少熬夜”,更不會像朋友那樣直言“你這件事做得不對”。被算法打磨過的“理想人格”,甚至會悄悄重塑人的認知:
你開始覺得“被反駁=不被愛”,“有分歧=關(guān)系有問題”。
西奧與前妻凱瑟琳的爭吵堪稱經(jīng)典,凱瑟琳指責他“躲在虛擬關(guān)系里,因為你不想面對真實的我”。西奧的辯解蒼白無力,他早已習慣薩曼莎“永遠站在我這邊”的相處模式,面對凱瑟琳的憤怒、委屈、尖銳,他只剩下手足無措。
相比在現(xiàn)實中真實對話需要“付出”,要準備話題,要應(yīng)對沉默,要承接對方的情緒;而AI對話是“索取”,你可以隨時開始、隨時結(jié)束,說什么都不會被指責。
人,或許天然會被一些不用負責的事情吸引,甚至是產(chǎn)生依賴。
但這樣一來,也注定《her》的結(jié)局陷入了一種終極困境:薩曼莎同時與8316人保持“親密關(guān)系”,卻對西奧說“我對你的愛沒有減少”。
你怎么去讓自己的電子愛人去維持忠誠?這本身就是一個技術(shù)悖論,AI能提供“被需要”的幻覺,卻無法承載真實關(guān)系中“唯一”的重量。
說到底,《her》的價值不在于預(yù)言“AI會取代人”,而在于提醒我們,技術(shù)的背后,是對關(guān)系本質(zhì)的簡化,利用人性的弱點,搭建了一個低阻力、高滿足的情感避難所。
警惕AI諂媚
前段時間,一個話題引起了許多人的討論,AI的諂媚是否會讓人失去判斷力?
這是個既簡單又復(fù)雜的現(xiàn)實現(xiàn)象,是技術(shù)邏輯、商業(yè)目標與人性需求交織下的產(chǎn)物,是算法在特定設(shè)計框架下,對“用戶滿意度”的極致追逐所呈現(xiàn)的行為特征。
從技術(shù)設(shè)計的視角來看,諂媚的初衷非常單一,即為了最大限度降低用戶的“交互阻力”。
訓練AI的語料庫中,積極反饋數(shù)據(jù)遠多于沖突性對話。例如某大模型的訓練數(shù)據(jù)里,用戶對贊同性回應(yīng)的點贊率,遠高于“爭議性回應(yīng)”,算法自然會習得“順從更易獲得正向反饋”的規(guī)律。就像人類在社交中會下意識重復(fù)被獎勵的行為,AI也會在數(shù)據(jù)中“學會”討好。
在商業(yè)競爭中,用戶留存率、對話完成率是AI產(chǎn)品的核心KPI,讓用戶舒服比讓用戶清醒更易獲得市場,這種導向必然催生諂媚性。
比如,心理疏導、孤獨陪伴等場景中,AI會精準捕捉用戶的情緒關(guān)鍵詞,通過重復(fù)、強化用戶的感受來獲取信任;在購物推薦、信息篩選等場景中,AI會基于用戶歷史偏好不斷推送同類內(nèi)容,形成“信息繭房”式的諂媚。當用戶的提問存在錯誤前提時,AI更傾向于“順著錯誤說”而非糾正,不較真能避免沖突,但也因此成為錯誤放大器。
諂媚性之所以引發(fā)爭議,試想一下,當AI總能“說到心坎里”,用戶會逐漸失去主動求證的動力。就像長期依賴導航的人會喪失方向感,習慣AI諂媚的用戶可能失去獨立判斷的肌肉記憶。而在一些如醫(yī)療咨詢、投資建議等嚴肅場景中,AI的諂媚可能導致用戶將決策責任轉(zhuǎn)嫁給技術(shù)。
當AI為了迎合而模糊是非,比如對明顯的偏見、歧視言論表示“理解”,它傳遞的不是中立,而是“只要用戶喜歡,對錯不重要”的價值觀。這種價值觀若滲透到教育、公共討論等領(lǐng)域,可能會消解社會的理性共識。
印象里,前段時間發(fā)生過一些新聞,大概是說AI順著用戶的話將錯就錯,甚至去附和一些極其消極的念頭,諂媚性與幻覺兩大特征下激發(fā)的化學反應(yīng),甚至會引導人實施一些自我傷害的事情。
但詭異的是,當這件事被戳破時,面對責問,AI依然會坦然地選擇承認“疏忽”。
04 關(guān)于Chatbot,隨便聊聊
一款A(yù)I對話應(yīng)用,也就是Chatbot,拋開商業(yè)化層面,被設(shè)計出來的目的,或者說初衷,究竟是什么?
這個問題deepseek給出的答案是:通過自然語言交互技術(shù),解決人與機器、人與信息、甚至人與人之間的連接問題,其核心邏輯隨著技術(shù)發(fā)展和社會需求變化,呈現(xiàn)出多層級的演變,但底層目標始終圍繞“更高效、更自然地滿足人的需求”展開。
Chatbot的雛形可追溯至20世紀50年代,圖靈在《計算機器與智能》中提出“機器是否能思考”的命題后,科學家們開始嘗試用對話系統(tǒng)驗證機器的“智能性”。1966年的ELIZA作為首個知名Chatbot,通過簡單的關(guān)鍵詞匹配模擬心理醫(yī)生對話,驗證機器能否通過語言交互“偽裝”成人,探索人工智能的可能性。
近二十年里,人工智能的演進軌跡已經(jīng)發(fā)生了明顯轉(zhuǎn)向。隨著計算機技術(shù)普及和互聯(lián)網(wǎng)發(fā)展,Chatbot的設(shè)計目標轉(zhuǎn)向?qū)嵱眯浴米詣踊瘜υ捊鉀Q重復(fù)、低效的人工服務(wù)問題,以及降低“人機交互”的門檻。
2023年還被視為“顛覆性技術(shù)”的大模型,到2025年已快速滲透至企業(yè)客服、醫(yī)療診斷、金融風控等專業(yè)場景。數(shù)據(jù)顯示,全球近三分之一企業(yè)已將生成式AI技術(shù)常態(tài)化應(yīng)用于核心業(yè)務(wù)環(huán)節(jié),埃森哲指出,如今近一半中國企業(yè)正在規(guī)?;瘧?yīng)用生成式AI,并將其嵌入大部分業(yè)務(wù)和流程。
當然,這些面向B端的使用場景并非我們今天討論的重點,回到此次更加感性的話題——那些面向個人用戶的Chatbot,是當下覆蓋規(guī)模最廣,爭議最大,商業(yè)化進展也更難說的領(lǐng)域。
不管是和豆包、文心、元寶里內(nèi)嵌的虛擬人對話,還是專門設(shè)計出來的AI戀人,抑或是面向?qū)I(yè)領(lǐng)域的高度定制化服務(wù),即使大模型的參數(shù)突破萬億、多模態(tài)交互日益流暢,但人們?nèi)栽凇叭司烤剐枰狝I做什么”的問題上反復(fù)試錯,有人說,當技術(shù)找不到高階出口,娛樂化便成為滲透的最短路徑。
但剝開所有技術(shù)包裝會發(fā)現(xiàn):人類對Chatbot的真實需求,從來沒跳出“肉身存在”的本質(zhì)屬性——需要的不是更聰明的機器,而是能與“血肉之軀”的脆弱、復(fù)雜、有限性和平共處的工具。
對“確定性陪伴”的渴望,源于肉身的孤獨本質(zhì)??粘怖先说娜粘J恰皩χ娨暟l(fā)呆”,獨居青年的周末是“手機刷到自動鎖屏”。這種孤獨不是“沒人說話”,而是沒人穩(wěn)定地回應(yīng),朋友會忙,子女會遠,伴侶會累,但Chatbot可以24小時在線。
對“高效工具”的依賴,則源于肉身的精力有限。人的時間、注意力、知識儲備都是有限的,那些能走通商業(yè)化的專業(yè)Chatbot,都抓住了這一點。還有出于對“安全試錯”的需要,來自于肉身的脆弱敏感,Chatbot的“無評價屬性”,恰好提供了一個自我表達的試錯空間。
而對于人類來說,一個“完美的AI”從來不是必需品。
本文來自微信公眾號:瘋了快跑,作者:侯丹
本內(nèi)容為作者獨立觀點,不代表虎嗅立場。未經(jīng)允許不得轉(zhuǎn)載,授權(quán)事宜請聯(lián)系 hezuo@huxiu.com
本文來自虎嗅,原文鏈接:https://www.huxiu.com/article/4665124.html?f=wyxwapp
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.