機(jī)器之心報(bào)道
編輯:杜偉、+0
剛剛,又一個(gè)人工智能國(guó)際頂會(huì)為大模型「上了枷鎖」。
ICLR 2025已于今年 4 月落下了帷幕,最終接收了 11565 份投稿,錄用率為 32.08%。
就在今天,ICLR 2026 出臺(tái)了大語言模型(LLM)使用政策,以明確規(guī)范論文作者與審稿人在研究過程和審稿過程中使用 LLM 的做法。
這屆會(huì)議將于明年 4 月 23 日至 27 日在巴西里約熱內(nèi)盧舉辦。
此次發(fā)布的所有政策均以 ICLR《道德準(zhǔn)則》為基礎(chǔ),旨在確保學(xué)術(shù)誠(chéng)信,同時(shí)規(guī)避 LLM 可能帶來的風(fēng)險(xiǎn),如事實(shí)幻覺、剽竊或數(shù)據(jù)失實(shí)。
以下是兩項(xiàng)核心政策:
政策1:任何對(duì) LLM 的使用都必須如實(shí)披露,這遵循了《道德準(zhǔn)則》中「所有對(duì)研究的貢獻(xiàn)都必須得到承認(rèn)」以及「貢獻(xiàn)者應(yīng)期望……為其工作獲得認(rèn)可」的政策。
政策2:ICLR 的論文作者和審稿人最終要為自己的貢獻(xiàn)負(fù)責(zé),這遵循了《道德準(zhǔn)-則》中「研究人員不得故意做出虛假或誤導(dǎo)性的聲明,不得捏造或偽造數(shù)據(jù),也不得歪曲結(jié)果」的政策。
違反上述政策的投稿將面臨具體處罰,其中最嚴(yán)重的后果之一是直接拒稿 (desk rejection)。
具體應(yīng)用場(chǎng)景說明
為闡明政策的實(shí)際應(yīng)用,ICLR 官方列舉了幾個(gè)關(guān)鍵場(chǎng)景:
- 輔助論文寫作
作者在使用 LLM 輔助潤(rùn)色語法、調(diào)整措辭甚至草擬章節(jié)后,必須明確披露其使用情況。作者對(duì)論文的全部?jī)?nèi)容,包括 LLM 生成的任何錯(cuò)誤或不當(dāng)內(nèi)容,承擔(dān)全部責(zé)任。
- 輔助研究
當(dāng) LLM 被用于提出研究思路、生成實(shí)驗(yàn)代碼或分析結(jié)果時(shí),同樣需要披露。人類作者必須對(duì) LLM 貢獻(xiàn)的有效性和準(zhǔn)確性進(jìn)行驗(yàn)證。ICLR 強(qiáng)調(diào),即使研究工作由 LLM 大量完成,也必須有一名人類作者來承擔(dān)最終責(zé)任。
- 輔助撰寫審稿或元審稿意見
審稿人或領(lǐng)域主席 (Area Chair) 在撰寫審稿或元審稿意見時(shí)使用 LLM 必須披露。審稿人不僅要對(duì)審稿意見的質(zhì)量和準(zhǔn)確性負(fù)責(zé),還必須確保使用 LLM 的過程不會(huì)泄露投稿論文的機(jī)密信息。違反保密規(guī)定可能會(huì)導(dǎo)致該審稿人自己提交的所有論文被直接拒稿。
- 禁止「提示詞注入」
嚴(yán)禁作者在論文中插入旨在操縱審稿流程的隱藏「提示詞注入」(例如,用白色字體誘導(dǎo) LLM 給出好評(píng))。詳見機(jī)器之心報(bào)道:真有論文這么干?多所全球頂尖大學(xué)論文,竟暗藏 AI 好評(píng)指令
這種行為被視為串通 (collusion),是一種嚴(yán)重的學(xué)術(shù)不端行為。論文作者和審稿人都將為此負(fù)責(zé)。
ICLR 不是孤例,其他頂會(huì)也有相關(guān)規(guī)定
隨著大語言模型能力的持續(xù)增強(qiáng),應(yīng)用范圍不斷拓展,其觸手也伸向了論文寫作。從論文撰寫到審稿反饋,LLM 的使用能夠顯著提升效率。
與此同時(shí),過度依賴或不當(dāng)使用 LLM 也引發(fā)了擔(dān)憂,并導(dǎo)致一些學(xué)術(shù)不端現(xiàn)象的出現(xiàn),包括虛假引用、抄襲拼接或責(zé)任模糊,這些都對(duì)科研誠(chéng)信以及學(xué)術(shù)評(píng)價(jià)的公正性構(gòu)成了挑戰(zhàn)。
而作為人工智能領(lǐng)域最具影響力的科研平臺(tái),各大頂會(huì)投稿數(shù)量正以每年數(shù)以千計(jì)的規(guī)模遞增,不可避免地面臨著 LLM 所帶來的種種壓力。
為了確保研究成果得到公平的評(píng)判并對(duì)審稿過程進(jìn)行有效監(jiān)督,近年來,包括 NeurIPS、ICML 以及如今的 ICLR 等國(guó)際頂會(huì)都相繼制定 LLM 使用細(xì)則,以約束論文作者和審稿人的行為。
其中,NeurIPS 2025 規(guī)定了:
「允許 LLM 作為工具,但論文作者若將其作為核心方法則必須詳細(xì)描述;審稿人則嚴(yán)禁將任何機(jī)密信息(如稿件內(nèi)容)輸入 LLM,僅可在不泄密的前提下用于輔助理解或檢查語法?!?/p>
網(wǎng)站地址:
https://neurips.cc/Conferences/2025/LLM?utm_source=chatgpt.com
更早時(shí)候的 ICML 2023 規(guī)定:
「禁止提交完全由大語言模型(如 ChatGPT)生成的論文文本,但允許使用其編輯和潤(rùn)色作者自己撰寫的文本,以防范剽竊等潛在風(fēng)險(xiǎn)?!?/p>
網(wǎng)站地址:
https://icml.cc/Conferences/2023/llm-policy?utm_source=chatgpt.com
其他如 IEEE 相關(guān)會(huì)議也規(guī)定了:
「需要負(fù)責(zé)任地使用生成式 AI 作為輔助研究的工具,但強(qiáng)調(diào)人類作者和審稿人必須對(duì)工作的科學(xué)誠(chéng)信與保密性負(fù)全部責(zé)任。對(duì)于作者,必須在致謝部分明確聲明所用 AI 工具及具體用途,并對(duì)所有內(nèi)容的準(zhǔn)確性和原創(chuàng)性負(fù)責(zé),同時(shí)嚴(yán)禁利用 AI 偽造數(shù)據(jù)。對(duì)于審稿人,則出于嚴(yán)格的保密原則,絕對(duì)禁止將所審稿件的任何信息輸入到任何 AI 系統(tǒng)中?!?/p>
網(wǎng)站地址:
https://www.ieee-ras.org/publications/guidelines-for-generative-ai-usage?utm_source=chatgpt.com
ACM 相關(guān)會(huì)議同樣有類似規(guī)定:
「如果使用 LLM(如 ChatGPT)生成文本、表格、代碼等,必須在致謝或正文中明確披露對(duì)應(yīng)工具和使用方式;僅用于語言潤(rùn)色的小規(guī)模修改可以不用披露?!?/p>
網(wǎng)站地址:
https://www.acm.org/publications/policies/frequently-asked-questions?utm_source=chatgpt.com
可以預(yù)見,越來越清晰的 LLM 使用細(xì)則,可以進(jìn)一步促進(jìn) AI 工具的透明、合理使用,并形成更系統(tǒng)的學(xué)術(shù)規(guī)范。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.