早在2014年1月,霍金就和埃隆·馬斯克他們一起,在未來生命研究所簽了封公開信,呼吁大家把AI研究往安全方向推。
信里強調(diào),AI潛力巨大,能解決癌癥、氣候變化這些大麻煩,但前提是別讓它失控?;艚鹛貏e點出軍事應用的風險:如果AI接入武器系統(tǒng),網(wǎng)絡一被入侵,后果比核彈還糟。
核彈是靜態(tài)的,AI是活的,能學習、適應,甚至自我復制。
2015年7月,他又簽了封信,這次直指“殺手機器人”。一千多位專家,包括馬斯克和蘋果的沃茲尼亞克,都附議,警告軍事AI軍備競賽會釀大禍。
信里說,自主武器一旦普及,門檻低到恐怖分子都能搞,擴散速度像病毒?;艚鸬挠^點很接地氣:AI不是魔鬼,但人類用它打仗,就等于給自己挖坑。
過去幾年,國際上沒少討論禁令,可大國間拉鋸,進展慢吞吞。
AI不像傳統(tǒng)武器那么可控,核武有條約管著,化學武器也基本禁了,可AI武器呢?它能壓縮決策時間,從幾天變幾秒,誤判風險直線上升。 比如,AI驅(qū)動的導彈系統(tǒng),本該鎖定敵機,結(jié)果傳感器一 glitch,就炸錯目標。
2025年上半年,斯德哥爾摩國際和平研究所的報告就點明,非核軍事AI會讓危機中人類反應不過來,核升級概率飆升。
軍事AI的腳步?jīng)]停,已經(jīng)從實驗室爬到戰(zhàn)場。美軍在推AI戰(zhàn)略,重點是無人機和機器人部隊。 這些玩意兒能自主巡邏、識別目標,減少士兵傷亡,聽著多好??娠L險呢?操作漏洞大開,黑客一鉆空子,就能讓整支隊伍掉頭。
烏克蘭沖突里,AI無人機已經(jīng)成主力,命中率高得嚇人,但干擾一多,誤傷就冒頭。 分析師們直搖頭,說這不光是cyber威脅,還缺人類把關,自主系統(tǒng)一失控,等于開了潘多拉盒子。
AI在武器設計上的貓膩更讓人脊背發(fā)涼,學術AI研究別想躲開軍用后果。 生成式AI能模擬戰(zhàn)場,優(yōu)化導彈軌跡,迭代上千次,效率高到變態(tài)??蛇@也意味著,設計殺傷力更強的玩意兒,門檻低了。
非國家勢力一上手,生物武器或臟彈的組裝指南,就能AI吐出來。2025年7月的布里奇斯學會文章列了六種AI引戰(zhàn)方式:從權(quán)力平衡打破,到意外升級,全是血淋淋的可能。
風險譜系從低到高攤開,低端是當下操作險,像cyber攻擊癱瘓無人機群;高端是存在威脅,AI超智后重塑世界。 通用AI進步,可能直奔滅絕。
專業(yè)上,監(jiān)管是關鍵,可虛空還大。
霍金的遺產(chǎn),就在這:逼我們直面,AI軍用化不是賽跑,是自殺沖刺。
參考資料
日本發(fā)布人工智能武器研發(fā)指南,明確“人類干預”必要性 光明網(wǎng)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.