夜夜躁很很躁日日躁麻豆,精品人妻无码,制服丝袜国产精品,成人免费看www网址入口

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

MIT最新發(fā)現(xiàn):這十年,算法進步被高估了

0
分享至



機器之心報道

機器之心編輯部

在過去十年中,AI 的進步主要由兩股緊密相關(guān)的力量推動:迅速增長的計算預(yù)算,以及算法創(chuàng)新。

相比之下,計算量的增長較容易衡量,但我們?nèi)匀蝗狈λ惴ㄟM步的清晰量化,究竟哪些變化帶來了效率提升,這些提升的幅度有多大,以及它們在不同計算規(guī)模下是否依然成立。

2024 年,有研究通過分析數(shù)百個語言模型,他們估計在過去十年里,算法進步在所謂的有效計算量(effective compute)方面貢獻了超過 4 個數(shù)量級的提升;而根據(jù)對歷史 AI 文獻的分析,計算規(guī)模本身增長了 7 個數(shù)量級。

具體而言,所有算法創(chuàng)新加起來使模型的效率提高了大約 22,000 倍,這意味著在理論上可以用少得多的浮點運算次數(shù)(FLOPs)達到相同的性能水平。

然而,我們?nèi)匀蝗狈@類進步的精確分解,而關(guān)于算法進步來源的許多關(guān)鍵問題仍未得到充分研究。例如:各種算法改進之間是如何相互作用的?算法進步是由一系列小改動累積而成,還是由少數(shù)幾次重大突破推動的?算法改進是像摩爾定律那樣平滑持續(xù)地發(fā)展,還是呈現(xiàn)間斷平衡(即長時間停滯 + 突然大跳躍)的模式?

為回答這些問題,來自 MIT 等機構(gòu)的研究者采用了三種互補的方法:

  • 對語言模型中的重要算法改進進行消融實驗;
  • 開展 scaling 實驗,以測量不同架構(gòu)在最優(yōu) scaling 行為上的差異;
  • 對數(shù)據(jù)與參數(shù) scaling 轉(zhuǎn)換進行理論分析。



  • 論文地址:https://arxiv.org/pdf/2511.21622
  • 論文標題:On the Origin of Algorithmic Progress in AI

最終得到三條結(jié)論:

1:經(jīng)過實驗評估的大多數(shù)算法創(chuàng)新都只帶來了小幅的、與規(guī)模無關(guān)的效率提升,總體計算效率提升不到 10 倍,并且在推算到 2025 年的計算能力極限(2 × 1023 FLOPs)時,這些提升僅占總改進的不到 10%。這表明,與規(guī)模無關(guān)的算法進步在整體效率提升中所占的份額很小

2:本文發(fā)現(xiàn)有兩項強烈依賴規(guī)模(scale-dependent)的算法創(chuàng)新:從 LSTM 到 Transformer,以及從 Kaplan 到 Chinchilla 。當(dāng)將其外推到 2025 年的計算前沿時,這兩項創(chuàng)新合計占據(jù)了全部效率提升的 91%。這意味著:對于小規(guī)模模型而言,算法進步的幅度比此前認為的要小幾個數(shù)量級。

3:在規(guī)模依賴型創(chuàng)新的情況下,效率提升不僅需要持續(xù)的計算投入,而且算法進步的速度還強烈依賴于你選擇的參考算法。換句話說,相對于某一個基線算法,連續(xù)模型之間的進步率可能看起來是指數(shù)級的;但相對于另外一個基線算法,它卻可能完全為零。

總體來看,這些發(fā)現(xiàn)表明:算法進步可能本質(zhì)上就是依賴規(guī)模的,要真正體現(xiàn)其效益需要不斷增長計算規(guī)模。同時,這也意味著算法進步對大模型開發(fā)者的益處遠大于對小規(guī)模參與者的益處。



規(guī)模不變型算法

本文首先通過大量的消融實驗來分析單個算法的影響,從而繪制出算法改進的細粒度圖景。此外,本文還嘗試估計了多項算法組合后的聯(lián)合效果。

本文發(fā)現(xiàn):原始論文(即提出某項算法改進的那篇論文)所聲稱的效率提升,往往遠高于后續(xù)文獻給出的估計,也高于本文的實驗結(jié)果。



規(guī)模不變型算法的效率提升既小且分布高度不均

實驗中發(fā)現(xiàn),從 LSTM 切換到 Modern Transformer 的總效率提升為 6.28×,而從 LSTM 切換到 Retro Transformer 的效率提升為 4.69×。這比 Ho 等人(2024)的估計(他們認為 LSTM→Transformer 的提升約 60×)小得多。

雖然本文確實觀察到一些改進(例如 Adam 優(yōu)化器、以及從 post-layernorm 切換到 pre-RMSNorm)帶來了大約 2× 的效率提升,但作者測量的大多數(shù)創(chuàng)新帶來的提升都很小。

有趣的是,他們看到一個高度偏斜的效率提升分布:盡管所有被消融的創(chuàng)新帶來的提升都低于 4×,但提升倍數(shù)卻極不均勻,主要集中在少數(shù)幾項改進上,例如 Adam 或 pre-layernorm。

從這個角度來看,算法進步比之前想象的更加斷裂 / 不連續(xù):多年小幅改進之后,會出現(xiàn)一次較大的算法躍遷。

許多改進的效率提升幅度很小,這也推動本文開展第二部分實驗,比較算法變化在不同規(guī)模下的影響,從而揭示這些變化對神經(jīng)網(wǎng)絡(luò) scaling laws 的作用。

依賴于規(guī)模的算法

前文提到,算法改進在小規(guī)模模型上帶來的收益非常有限。因此自然會產(chǎn)生一個問題:在大規(guī)模下,算法收益會變得更大嗎?

因此,本文對不同架構(gòu)、優(yōu)化器,以及算法創(chuàng)新進行了 scaling 實驗,以更好地理解它們的效率提升如何隨計算規(guī)模變化。

實驗?zāi)P椭饕獮?LSTM、Transformer,以及兩種 Transformer 變體:Modern Transformer、Retro Transformer。

規(guī)模擴展實驗:從 LSTM 到 Transformer

圖 4A 展示了 LSTM 與現(xiàn)代 Transformer 在 scaling 上的差異,圖 4B 展示了現(xiàn)代 Transformer 與 Retro Transformer 的 scaling 差異。



Scaling 圖表表明,神經(jīng)網(wǎng)絡(luò)架構(gòu)的改進并不是規(guī)模不變的,而是具有隨規(guī)模增加而回報提升的特性(increasing returns to scale)。

算法進步強烈依賴于算力規(guī)模與參考基線

算法進步可能主要由算力提升所驅(qū)動

本文提出一個疑問:此前將算法進步與時間掛鉤的說法,是否其實是由算力投入的持續(xù)增長所驅(qū)動?

已有估計表明,前沿模型的計算預(yù)算正以每年 4.2 倍的速度呈指數(shù)增長。因此,隨著算力預(yù)算呈指數(shù)級提升,算法進步的速率可能更多是受這一規(guī)律性的算力擴張所推動,而不是源于不斷涌現(xiàn)的算法創(chuàng)新。

本文發(fā)現(xiàn):在 2017–2025 年間,幾乎所有可解釋的算法進步都來自兩項規(guī)模依賴型的創(chuàng)新:從 LSTM 換成 Transformer,以及從 Kaplan 換成 Chinchilla 的訓(xùn)練策略。其他所有算法改進加起來只占很小一部分。

在總計 21,400 倍(相對于 LSTM 模型)的性能提升中,本文發(fā)現(xiàn) 846 倍的提升是通過從 LSTM 模型轉(zhuǎn)向 Kaplan Transformer 模型實現(xiàn)的,而近 10 倍的提升則歸功于 Chinchilla 調(diào)整訓(xùn)練策略。這兩項創(chuàng)新共同構(gòu)成了總相對效率提升的 91%。



算法進步的速度,取決于你拿誰當(dāng)對照組

如果算法變得更強,是不是意味著進步更快,其實這完全取決于你選誰來當(dāng)參照物。換個參照物,算法進步的速度立刻就變了。

因為有些算法改進是規(guī)模依賴型(scale-dependent) 的:在大模型、大算力下提升巨大;但在小模型、小算力下幾乎沒作用。

這導(dǎo)致一個有趣現(xiàn)象:如果你用 LSTM 當(dāng)參照:Transformer 系列(尤其是更大模型)會顯得算法進步是指數(shù)增長的(論文測到一年增長率大約 63%,非??欤坏绻阌?Transformer 自己當(dāng)參照,隨著規(guī)模變大,你只看到算法只比以前好 2 倍,幾乎沒增長。

也就是說:換個對照組,算法進步就從指數(shù)增長變成增長幅度很少。



特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
南京氣溫又破紀錄!接下來反轉(zhuǎn)…明天上學(xué)多穿衣服

南京氣溫又破紀錄!接下來反轉(zhuǎn)…明天上學(xué)多穿衣服

南京擇校
2025-12-21 19:24:52
他家靠自媒體還債?別天真了...

他家靠自媒體還債?別天真了...

BenSir本色說
2025-11-21 22:55:15
文旅龍頭來了!年內(nèi)主板 第二高價新股

文旅龍頭來了!年內(nèi)主板 第二高價新股

每日經(jīng)濟新聞
2025-12-21 15:11:25
張家齊直播,跳水隊只有全紅嬋捧場?原因找到,誰注意周繼紅反應(yīng)

張家齊直播,跳水隊只有全紅嬋捧場?原因找到,誰注意周繼紅反應(yīng)

懂球社
2025-12-19 18:49:32
第一批免簽去俄羅斯的中產(chǎn)傻眼了

第一批免簽去俄羅斯的中產(chǎn)傻眼了

風(fēng)向觀察
2025-12-16 18:26:08
12月21日晚間上市公司重大事項公告

12月21日晚間上市公司重大事項公告

風(fēng)風(fēng)順
2025-12-21 19:15:22
1970年,謝富治阻撓少將升官,主席掐滅煙頭問了一句,全場沒人敢接茬

1970年,謝富治阻撓少將升官,主席掐滅煙頭問了一句,全場沒人敢接茬

史海殘云
2025-12-11 16:19:09
談及此戰(zhàn),毛主席定下規(guī)矩:若戰(zhàn)敗,許世友斬立決,王建安重責(zé) 40 軍棍,我自愿官降三級以謝天下

談及此戰(zhàn),毛主席定下規(guī)矩:若戰(zhàn)敗,許世友斬立決,王建安重責(zé) 40 軍棍,我自愿官降三級以謝天下

源溯歷史
2025-12-20 16:22:16
4種水果自帶“二甲雙胍”?每天換著吃,或有助于穩(wěn)血糖

4種水果自帶“二甲雙胍”?每天換著吃,或有助于穩(wěn)血糖

健康之光
2025-12-20 18:25:05
細思極恐!一份90年代報紙的報道,又暴露出南博的“習(xí)慣性借出”

細思極恐!一份90年代報紙的報道,又暴露出南博的“習(xí)慣性借出”

火山詩話
2025-12-20 06:43:20
李提香:遺憾沒幫助浙江奪冠就匆匆離去,離開的原因并不重要

李提香:遺憾沒幫助浙江奪冠就匆匆離去,離開的原因并不重要

懂球帝
2025-12-21 18:12:10
劉嘉玲組團滑雪!王菲帶李嫣現(xiàn)身,馮德倫也在,9人同行喝酒慶祝

劉嘉玲組團滑雪!王菲帶李嫣現(xiàn)身,馮德倫也在,9人同行喝酒慶祝

知法而形
2025-12-20 14:39:01
回顧探花大神:害人害己,多位女主被親戚認出當(dāng)場“社死”

回顧探花大神:害人害己,多位女主被親戚認出當(dāng)場“社死”

就一點
2025-10-09 12:19:42
終于官宣!老年證將全面作廢,以后坐公交逛公園就用它

終于官宣!老年證將全面作廢,以后坐公交逛公園就用它

陳博世財經(jīng)
2025-12-20 14:27:24
“彈劾賴清德”網(wǎng)絡(luò)連署結(jié)果驚人,藍白有重要決定,鄭麗文被打臉

“彈劾賴清德”網(wǎng)絡(luò)連署結(jié)果驚人,藍白有重要決定,鄭麗文被打臉

聞識
2025-12-21 13:36:51
俄羅斯正為戰(zhàn)爭付出高昂代價,即使戰(zhàn)爭結(jié)束,也要還債很多年

俄羅斯正為戰(zhàn)爭付出高昂代價,即使戰(zhàn)爭結(jié)束,也要還債很多年

山河路口
2025-12-18 22:29:20
曾醫(yī)生和祖副院長后續(xù):祖副院長受邀到貴州就診,因投訴被撤銷

曾醫(yī)生和祖副院長后續(xù):祖副院長受邀到貴州就診,因投訴被撤銷

江山揮筆
2025-12-21 09:41:07
固態(tài)電池神話破滅,中日韓千億投資恐打水漂

固態(tài)電池神話破滅,中日韓千億投資恐打水漂

菠蘿欣賞家本尊
2025-12-17 19:00:11
埃梅里:我當(dāng)然想成為英超奪冠熱門,但維拉并非熱門球隊

埃梅里:我當(dāng)然想成為英超奪冠熱門,但維拉并非熱門球隊

懂球帝
2025-12-21 21:13:23
烏克蘭一夜摧毀克里米亞的米格31戰(zhàn)機!打掉4套防空系統(tǒng)

烏克蘭一夜摧毀克里米亞的米格31戰(zhàn)機!打掉4套防空系統(tǒng)

項鵬飛
2025-12-19 16:41:29
2025-12-21 22:12:49
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
11957文章數(shù) 142515關(guān)注度
往期回顧 全部

科技要聞

生態(tài)適配已超95% 鴻蒙下一關(guān):十萬個應(yīng)用

頭條要聞

46歲獨居女子離世遺產(chǎn)歸公買墓地遇難題 最新進展公布

頭條要聞

46歲獨居女子離世遺產(chǎn)歸公買墓地遇難題 最新進展公布

體育要聞

勇士火箭贏球:王牌之外的答案?

娛樂要聞

星光大賞太尷尬!搶話擋鏡頭,場地還小

財經(jīng)要聞

老房子“強制體檢”,政府出手了

汽車要聞

-30℃,標致508L&凡爾賽C5 X冰雪"大考"

態(tài)度原創(chuàng)

房產(chǎn)
時尚
本地
數(shù)碼
親子

房產(chǎn)要聞

中交·藍色港灣一周年暨藍調(diào)生活沙龍圓滿舉行

紅色不流行了?今年最火的穿搭居然是它

本地新聞

云游安徽|訪黃山云海古村,讀一城山水風(fēng)骨

數(shù)碼要聞

都是RTX 5070,游戲性能差距竟然這么大?

親子要聞

為了“圓頭”,媽媽讓雙胞胎每天戴頭盔23小時,被罵虐娃也要繼續(xù)

無障礙瀏覽 進入關(guān)懷版 超清纯白嫩大学生无码网站| 欧美女美女操啊啊啊| 二级毛片无码在线免费观看| 嗯,啊,好舒服,视频| 国产精品第一二三区久久蜜芽 | 国产香蕉一区二区三区在线视频| 亚洲中文字幕五| 野花香日本大全免费观看| 91成人人妻网址最新| 久久精品区99| gv在线免费| 车上玩弄美艳馊子高潮| 亚洲欧美一区二区三区孕妇| 亚洲成女人图区一区二区| 欧美人妻偷人| www.99pao| 亚洲av综合avav中文| 欧美狠狠操女人视频| 久久亚洲精品无码播放| 国产疯狂性受XXXXX喷水| 国产a√精品区二区三区四区| 亚洲av综合色区| 国产乱子论一区二区视频| 小泽玛利亚一区二区在线观看 | 波多野吉衣被狂槽30分钟| 天天狠天天天天透在线| 人妻精品久久久久中文字幕69| 戴LV丝巾受访的女局长被查| 成年永久一区二区三区免费视频| 成人蜜桃av| 亚洲AV中文无码乱人伦在线18| 九九热在线视频观看这里只有精品| 精品人妻人人做人人爽| 国产精品观看99| 久久精品第九区免费观看| 亚洲欧美日韩人成在线播放| 寂寞少妇做spa按摩无码| 岛国岛国免费v片在线观看| 第一次处破女hd精品| 三级网站网址| 婷婷综合缴情亚洲狠狠|