這兩個事件都是當(dāng)下的熱點事件,只不過一個男性網(wǎng)友關(guān)注比較多,另一個女性網(wǎng)友關(guān)注比較多。而我想談的,則是跳出性別互殺的無意義情感宣泄,關(guān)注一下更有價值、更有建設(shè)性的問題——這兩件事情背后的“共謀暴力”,比如武漢大學(xué)校方的遲鈍、偷拍萬人群成員的沉默狂歡。
共謀暴力(Collusive Violence)是近年來比較新的一個概念,指的是:暴力行為得以發(fā)生、持續(xù)并合法化,是因為社會中的多個權(quán)力環(huán)節(jié)(如制度、文化、媒體、群眾)共同保持了縱容、回避或默許的姿態(tài)。在互聯(lián)網(wǎng)時代更包括平臺方監(jiān)管的問題、算法推薦鼓勵仇恨與暴力的問題。等等這些讓個別人渣產(chǎn)生的單向的暴力行為,變成了眾多人的“共謀暴力”,并在算法的主推下,成為一種“暴力工業(yè)化”現(xiàn)象。
首先簡要介紹一下這兩個事件。2023年7月11日,武漢大學(xué)經(jīng)濟與管理學(xué)院研二女生楊某稱,坐在她對面的本科新生肖某“隔空性騷擾”,并拿出手機拍下長達兩個小時的五段視頻作為證據(jù)。當(dāng)晚,她與肖某對質(zhì),索要了手寫道歉信,還錄下了二人對話。而校方尚未完全核查清楚事件前,兩天之內(nèi)即對肖某作出“記過”處分。
起初,在女性安全高度敏感的輿論氛圍中,許多網(wǎng)友本能地站在楊某一邊,對男生進行道德譴責(zé)。然而隨著事件進一步發(fā)酵,肖某家屬公開其有長期濕疹病史,當(dāng)晚可能是在衣物下搔癢而非進行不當(dāng)行為。2025年7月25日,武漢經(jīng)開區(qū)法院一審判決正式出爐,駁回楊某的全部訴求,認(rèn)定肖某并無性騷擾主觀意圖,所謂“挑逗動作”缺乏證據(jù)支撐,也不符合具體法律構(gòu)成。
2025年7月下旬,名為“MaskPark ”的 外網(wǎng)聊天群組被曝光:數(shù)以萬計的男性匿名用戶在這個加密交流群中,未經(jīng)同意分享女性的私密照片和視頻,內(nèi)容多源于偷拍公共空間或前任伴侶的畫面,并以群組內(nèi)部交流、惡意意淫甚至出售交易為樂。更有些專業(yè)偷拍器材隱秘至極——香薰、水杯、電源插座等日常物件內(nèi)置針孔攝像頭,涵蓋地鐵、商場、更衣室、校園寢室等多個情境,受害者包括從兒童到老年人的廣泛群體。
消息曝光后,“MaskPark”群組迅速被關(guān)閉,但其衍生子群依然在 該匿名聊天軟件上蠢蠢欲動。許多受害女性發(fā)帖講述被前伴侶以偷拍身份敲詐曝光、甚至泄露社交賬號的經(jīng)歷。
這兩件事情證明了:我們所面對的越來越不是個體的暴力行為,而是一個更為隱蔽、結(jié)構(gòu)化的系統(tǒng):一種由技術(shù)、情緒、算法、匿名文化與觀眾心理共同構(gòu)成的“共謀暴力”機制。
在這個機制中,暴力的實施者往往并不孤單。楊某的行為之所以能造成如此廣泛的社會性傷害,不僅因為她拿起了手機和舉報話語,更因為整個平臺輿論生態(tài)主動為她提供了舞臺、推力與情緒動員;而Mask Park群體中的偷拍者,則依賴于加密工具、匿名群組、文件包分類、用戶評分等一整套協(xié)作邏輯完成侵權(quán)行為,而觀看者的每一次瀏覽、下載與“標(biāo)記收藏”,也都是一次次靜默的共謀。
在“共謀暴力”的邏輯中,每一個不作為、每一次默認(rèn)、每一種冷漠,都是暴力機制得以持續(xù)運轉(zhuǎn)的潤滑劑。
武漢大學(xué)校方的表現(xiàn)便是一例。在接到楊某媛舉報后,校方未能第一時間開展公正透明的事實調(diào)查,而是倉促做出“記過處分”。這一行為表面是響應(yīng)舉報,實質(zhì)上卻是對情緒性輿論的默認(rèn)服從。它用一紙?zhí)幏謱W(xué)生推入網(wǎng)絡(luò)絞肉機,既失去了程序正義,也為暴力工業(yè)開了綠燈。
單單一個處分還不是武漢大學(xué)最大的問題,更嚴(yán)重的是在法院判決、輿論發(fā)酵之后,武大校方依然沒有想著及時改正錯誤,而是試圖用更多的錯誤去掩蓋。報警讓警察叔叔深夜拜訪參與討論的網(wǎng)友,留下了一句注定會“載入史冊”的名言“不要因為你的正當(dāng)……造成不利的后果……”,至此已然成為藝術(shù)。
從“共謀暴力”的視角來看,這是一種“制度型沉默共謀”:武漢大學(xué)以行政權(quán)力為外衣,以公文語氣為掩飾,將自身塑造成“高度關(guān)注”“秉公處理”“等待上級”“領(lǐng)導(dǎo)通知”的中立者,但實際的每一次沉默、每一封推諉郵件、每一次對外緘口,都是對原始暴力的延續(xù)性縱容,甚至升級為一種“合法的傷害”。被網(wǎng)友嘲諷為:處分學(xué)生其疾如風(fēng),改正錯誤其徐如林,上門警告侵略如火,等待上級不動如山。
再看Mask Park案中那些“只是看看”的群友——他們不拍攝、不發(fā)布,甚至沒有下載、打賞、評論——就像DOTA里那些廢物一號位一樣,隊友打團just在那里see。但正是“see”這種看似無害的行為,才構(gòu)成了偷窺工業(yè)化的市場需求側(cè)。每一個點擊、每一次瀏覽,都是對偷拍者“作品”的價值認(rèn)定,也正是他們讓女性的隱私影像從偷拍者手中,流轉(zhuǎn)為供萬眾取樂的視覺商品。在這一鏈條中,暴力不是單人的惡意行為,而是萬眾齊心的共謀狂歡。
更隱蔽的共謀者,則是平臺與算法機制。它們并不直接傷害個體,卻通過流量優(yōu)先、情緒激勵、熱度邏輯持續(xù)推送最具爭議、最易引爆的性別沖突內(nèi)容,鼓勵用戶參與“站隊”、制造“對抗”,而不鼓勵理性對話與復(fù)雜性分析。在這樣的結(jié)構(gòu)下,算法成為暴力的催化劑,平臺成為暴力的工廠車間——每一次推薦、每一輪話題熱榜的更新,都是對暴力的再投資與再生產(chǎn)。
這套系統(tǒng)的恐怖之處在于:它無需惡意就能造成巨大傷害,無需策劃便能實現(xiàn)規(guī)模擴散。它以“正常運轉(zhuǎn)”的面貌呈現(xiàn),在程序、機制、算法、慣性中,把一個個原本無害的角色,卷入到一場無盡的暴力協(xié)作中。而當(dāng)我們試圖追責(zé)時,卻發(fā)現(xiàn)責(zé)任如煙霧般彌散在所有人之間,人人都是幫兇,人人又都無罪。
于是,這就構(gòu)成了互聯(lián)網(wǎng)時代新型暴力機制:暴力工業(yè)化。
武大楊某媛污蔑案與Mask Park偷拍案,表面上看是兩個性別立場截然相反的個案:前者是一場由指控引發(fā)的“道德武器化”,后者是匿名社群主導(dǎo)的“偷窺商品化”;一個以“受害”為名,一以“加害”為實。但它們在網(wǎng)絡(luò)傳播機制中,卻共同揭示出一個值得深思的深層結(jié)構(gòu):網(wǎng)絡(luò)平臺與數(shù)字工具正在系統(tǒng)性地放大、催化、甚至工業(yè)化地生產(chǎn)暴力。
這類暴力的核心,并不再是傳統(tǒng)意義上的“肉體傷害”,而是基于圖像、信息與輿論的操控權(quán),以“觀看—傳播—審判”為路徑,對個體的聲譽、心理、安全乃至社會位置造成長期性毀滅。無論是圖書館里五段被斷章取義的視頻,還是針孔攝像頭偷拍來的影像資料,它們都首先被轉(zhuǎn)化為可傳播的“內(nèi)容原料”,進而進入平臺算法的篩選體系,最終以熱帖、爆文、集體情緒的形式,形成一套高度程序化的暴力擴散機制。
這正是所謂的“暴力工業(yè)化”的核心:暴力不再是一時沖動或私人行為,而是一種平臺經(jīng)濟邏輯驅(qū)動下的可量產(chǎn)內(nèi)容。以Mask Park案為例,偷拍行為依賴的是高度隱蔽、價格低廉的微型設(shè)備,加密通信平臺則提供了庇護所,而用戶之間的分享、模仿、再創(chuàng)作構(gòu)成了一種黑暗中的性別協(xié)作與審美同謀。這套機制不僅使暴力得以規(guī)?;a(chǎn),更使其具備了商業(yè)價值——受害者成為“素材供應(yīng)方”,加害者成為“內(nèi)容制造者”,觀眾則是“流量消費者”,整個過程呈現(xiàn)出驚人的工業(yè)結(jié)構(gòu)。
而武大案則揭示了另一維度:道德話語也可以成為暴力生產(chǎn)資料。當(dāng)舉報視頻、手寫道歉信、受害者身份標(biāo)簽被打包成輿論商品時,其真實指控的正當(dāng)性已被算法驅(qū)動的情緒消費淹沒。在未經(jīng)調(diào)查的背景下,學(xué)校迫于壓力倉促處分學(xué)生,網(wǎng)友蜂擁而上進行“網(wǎng)絡(luò)審判”,信息爆炸轉(zhuǎn)瞬變成私刑狂歡。最終無論司法如何判定,名譽已毀、心理已傷,個體早已被“道德審判供應(yīng)鏈”碾壓得七零八落。
二者背后暴露出的,是制度性權(quán)力在數(shù)字空間中的空位。法律在面對匿名加密平臺時力不從心,倫理在追逐流量快感中節(jié)節(jié)敗退,平臺在道德責(zé)任與經(jīng)濟激勵之間選擇沉默或拖延。于是網(wǎng)絡(luò)暴力不再是偶發(fā)事件,而是通過平臺算法、社群結(jié)構(gòu)、技術(shù)工具持續(xù)優(yōu)化后的“暴力模型”,不斷復(fù)制、調(diào)整、變形,并以極高效率投射到下一個受害者身上。
更深刻的問題在于,這種暴力工業(yè)化的邏輯不再區(qū)分“正義”與“非正義”,只區(qū)分“能傳播”與“不能傳播”,“可消費”與“無價值”?!皥D書館性騷擾者”的標(biāo)簽與“被偷拍女生”的影像,雖處道德光譜兩端,但都具備流量價值。在傳播機制中,受害者被轉(zhuǎn)化為“流量節(jié)點”,無論其是否真實受害,重要的是:他/她的做法或痛苦能否引發(fā)情緒共鳴、引導(dǎo)討論走向、催生話題熱點。在這個意義上,受害者不是被同情,而是被消費;加害者不是被懲罰,而是被圍觀;正義不是被申張,而是被外包給點擊率。工業(yè)化之力,恐怖如斯。
因為在一個暴力可以工業(yè)化生產(chǎn)的時代,任何人都可能是下一個“爆點素材”,也可能是那個被暴力反噬的節(jié)點。只有當(dāng)我們意識到這套機制之所以運轉(zhuǎn),正是因為我們每一個人的轉(zhuǎn)發(fā)與評論、沉默與獵奇,才可能真正遏止這場暴力流水線的無限延展。
更進一步地思考:讓我們先回到最基礎(chǔ)的前提——男性與女性從不是什么道德等級上的對立物。在人性這一結(jié)構(gòu)中,無論性別,每一個群體中都存在善良者與惡劣者、誠實者與操控者、忠誠者與背叛者。這不是立場的問題,而是統(tǒng)計學(xué)意義上的常態(tài)分布。社會也從未假設(shè)過“所有男性都正直”或“所有女性都善良”;反之亦然,也不是所有的男生都是性騷擾犯、所有的女生都是誣告者。
我們之所以能正常生活,正是因為個體被具體理解,而不是標(biāo)簽套用。在現(xiàn)實生活中,大多數(shù)男男女女都在合作而非對抗:我們是同學(xué)、同事、朋友、父母、戀人,是彼此依靠的親密者,而非彼此仇視的敵人。
但這一真實圖景,在互聯(lián)網(wǎng)的傳播機制中,被悄然挪移了位置、甚至被系統(tǒng)性地清洗出“視野范圍”。
從某博到某音,從某站到某書,這些平臺在背后運作的是同一個基本算法邏輯:誰更能引起憤怒、爭吵、情緒波動,誰就能獲得更多傳播、更多關(guān)注、更多點擊。而在性別議題上,這一邏輯恰恰最容易觸發(fā)“公共獵巫”和“私我防御”兩種情緒機制——前者想要懲罰“他者”,后者想要保護“我們”。
于是,一位極端控制女友的視頻被推送出來,標(biāo)簽是“所有女性都情緒化”;一個花心冷漠的男性行為被剪輯成段子,標(biāo)簽是“男人都是冷血動物”。你看到的不是一個人,而是一個代表性別群體的符號,一個用來總結(jié)群體本質(zhì)的“樣本人”。而這些樣本人越極端、越荒唐、越獵奇,就越能“代表”群體,就越被算法推薦。
暴力工業(yè)化算法不關(guān)心事實是否代表多數(shù),它只關(guān)心是否容易傳播。
就這樣,本該是少數(shù)極端個體的行為,成了多數(shù)人認(rèn)知中的“群體共性”;每一次傷害都被推送為“男性如何傷害女性”或“女性如何操縱男性”的再證據(jù)。算法制造了一個負面偏差敘事的回音室,用戶則在其中逐漸相信,世界上的男女都正在彼此敵視,彼此操控,彼此背叛。
人類天生具備一種名為“負面偏好”(negativity bias)的心理機制:我們對負面信息的感知更敏感、記憶更深刻、反應(yīng)更強烈。這種機制在進化早期有其適應(yīng)性意義——躲避危險比獲得獎賞更重要。
而我們又喜歡用 “認(rèn)知快捷方式”(cognitive heuristics)來理解世界。這意味著,當(dāng)某一群體的負面故事越多,我們越容易標(biāo)簽化這個群體。因此,在算法推送+心理偏見的雙重作用下,我們看到的世界越來越像“男人都是暴力狂”或“女人都是小仙女”這樣扁平的卡通世界。
上述兩點,就是信息時代暴力工業(yè)化鏈條的心理基礎(chǔ)。
那么,怎么辦?正如我在這篇文章中所分析的:圣心堂是反動政府屠殺巴黎公社的紀(jì)念碑,布達拉宮凝結(jié)著西藏農(nóng)奴的血淚史,但是其建筑的審美價值和藝術(shù)性是存在的,我們不可能因為其歷史的非道德性而推倒建筑。
同樣,對于信息時代新技術(shù)引發(fā)的新問題,我們肯定不能用斷網(wǎng)、棄用技術(shù)這些退步主義策略,而是必須在技術(shù)的基礎(chǔ)上,提出更具文明高度、結(jié)構(gòu)理性與倫理清醒的解決路徑。信息時代的“暴力工業(yè)化”并非不可控的自然災(zāi)難,而是人類社會在技術(shù)飛躍中暴露出的制度空缺、倫理滯后與認(rèn)知脆弱的集合性表現(xiàn)。
解決這一問題,絕不僅是“提高技術(shù)手段打擊違法行為”,更需要重新建構(gòu)制度、倫理與技術(shù)三者之間的邊界與橋梁。
具體一點,我們需要的是一種可以穿越“算法”主導(dǎo)的信息生態(tài),重新確立事實與比例感的傳播倫理機制;需要制度在面對網(wǎng)絡(luò)極端情緒時,保持判斷的冷靜與程序的堅守;更需要公眾在卷入任何網(wǎng)絡(luò)爭議時,抵抗情緒引導(dǎo),保持對“事實尚未明”的尊重。
因此,解決它,必須從“共謀結(jié)構(gòu)”中拆解每一個環(huán)節(jié),并引入新的設(shè)計與規(guī)范機制。
技術(shù)自身也應(yīng)成為解決問題的一部分。我們不應(yīng)把AI、算法、加密通訊視為暴力的幫兇,而要通過重新設(shè)計推薦邏輯與識別機制,讓技術(shù)承擔(dān)起“防暴力”的責(zé)任。例如,平臺應(yīng)降低那些依賴情緒挑動與對立煽動的視頻的推薦權(quán)重,設(shè)計識別偷拍、謠言、未核實爆料的系統(tǒng)提示與傳播降速策略,讓信息的“可傳播性”重新受制于其“真實性”與“合法性”。技術(shù)從未有罪,但技術(shù)結(jié)構(gòu)是否中立,從來取決于它服務(wù)的價值目標(biāo)。
與此同時,平臺運營本身也必須被納入公共倫理的視野。平臺不能再以“中立工具”的姿態(tài)回避責(zé)任,而要承認(rèn)自己在信息暴力鏈條中所扮演的決定性角色。它們需要建立透明的內(nèi)容審查與追責(zé)機制,針對爆料、攻擊性標(biāo)簽、圍觀獵巫等行為給予技術(shù)干預(yù),而不是等事情惡化后再事后封號了事。平臺的首頁與話題榜不應(yīng)只追逐流量熱點,而要承擔(dān)社會議題的引導(dǎo)功能,引入更多具有公共價值、修復(fù)信任的內(nèi)容,營造起一個非極端化、非站隊化的信息生態(tài)。
更根本的變革則來自公民教育本身。在算法主導(dǎo)的輿論結(jié)構(gòu)中,我們每個人都可能成為暴力工業(yè)鏈的一環(huán):一鍵轉(zhuǎn)發(fā)、一句嘲諷、一次冷漠旁觀,都是共謀。這正是為什么我們必須從教育系統(tǒng)與社會機制中重新灌輸“媒介素養(yǎng)”與“數(shù)字倫理”——要讓人們學(xué)會判斷真假、識別剪輯、保持冷靜,更重要的是,要重新學(xué)會如何在面對陌生人的苦難時,仍保有一種不迎合情緒、不先行定罪的尊重。這種教育,不是教技術(shù),而是教我們怎樣在技術(shù)世界里,不被馴化為非人。
◆ ◆ ◆ ◆ ◆
由于所有文章都因“眾所不知”的原因被刪除,目前只有微博還都能看到備份:
其余文章也在努力補檔中。但正所謂“天有不測風(fēng)云”,誰知道哪天又會發(fā)生“眾所不知”的意外呢。趁著目前還能查看,大家趕緊去搶救性閱讀一下吧。
還有一些微博文章獨創(chuàng)文章的備份,請搜索日文:
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.