久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

o1突發(fā)內(nèi)幕曝光,?谷歌8月論文已揭示原理,大模型光有軟件不存在護(hù)城河

 黃爸爸好 2024-09-18 發(fā)布于上海

來源:量子位

編輯:碩博生活圈

圖片
明敏 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI

發(fā)布不到1周,,OpenAI最強(qiáng)模型o1的護(hù)城河已經(jīng)沒有了,。

有人發(fā)現(xiàn),谷歌DeepMind一篇發(fā)表在8月的論文,,揭示原理和o1的工作方式幾乎一致,。

圖片

這項(xiàng)研究表明,增加測試時(shí)(test-time)計(jì)算比擴(kuò)展模型參數(shù)更有效,。

基于論文提出的計(jì)算最優(yōu)(compute-optimal)測試時(shí)計(jì)算擴(kuò)展策略,,規(guī)模較小的基礎(chǔ)模型在一些任務(wù)上可以超越一個(gè)14倍大的模型,。

網(wǎng)友表示:

這幾乎就是o1的原理啊。

眾所周知,,奧特曼喜歡領(lǐng)先于谷歌,,所以這才是o1搶先發(fā)preview版的原因?

圖片

有人由此感慨:

確實(shí)正如谷歌自己所說的,,沒有人護(hù)城河,,也永遠(yuǎn)不會有人有護(hù)城河。

圖片

就在剛剛,,OpenAI將o1-mini的速度提高7倍,,每天都能使用50條;o1-preview則提到每周50條,。

圖片

計(jì)算量節(jié)省4倍

谷歌DeepMind這篇論文的題目是:優(yōu)化LLM測試時(shí)計(jì)算比擴(kuò)大模型參數(shù)規(guī)模更高效,。

研究團(tuán)隊(duì)從人類的思考模式延伸,既然人面對復(fù)雜問題時(shí)會用更長時(shí)間思考改善決策,,那么LLM是不是也能如此,?

換言之,面對一個(gè)復(fù)雜任務(wù)時(shí),,是否能讓LLM更有效利用測試時(shí)的額外計(jì)算以提高準(zhǔn)確性,。

此前一些研究已經(jīng)論證,這個(gè)方向確實(shí)可行,,不過效果比較有限,。

因此該研究想要探明,在使用比較少的額外推理計(jì)算時(shí),,就能能讓模型性能提升多少,?

他們設(shè)計(jì)了一組實(shí)驗(yàn),使用PaLM2-S*在MATH數(shù)據(jù)集上測試,。

主要分析了兩種方法:

(1)迭代自我修訂:讓模型多次嘗試回答一個(gè)問題,,在每次嘗試后進(jìn)行修訂以得到更好的回答。
(2)搜索:在這種方法中,,模型生成多個(gè)候選答案,,

圖片

可以看到,使用自我修訂方法時(shí),,隨著測試時(shí)計(jì)算量增加,,標(biāo)準(zhǔn)最佳N策略(Best-of-N)與計(jì)算最優(yōu)擴(kuò)展策略之間的差距逐漸擴(kuò)大。

使用搜索方法,,計(jì)算最優(yōu)擴(kuò)展策略在初期表現(xiàn)出比較明顯優(yōu)勢,。并在一定情況下,達(dá)到與最佳N策略相同效果,,計(jì)算量僅為其1/4,。

在與預(yù)訓(xùn)練計(jì)算相當(dāng)?shù)腇LOPs匹配評估中,,對比PaLM 2-S*(使用計(jì)算最優(yōu)策略)一個(gè)14倍大的預(yù)訓(xùn)練模型(不進(jìn)行額外推理),。

結(jié)果發(fā)現(xiàn),,使用自我修訂方法時(shí),當(dāng)推理tokns遠(yuǎn)小于預(yù)訓(xùn)練tokens時(shí),,使用測試時(shí)計(jì)算策略的效果比預(yù)訓(xùn)練效果更好,。但是當(dāng)比率增加,或者在更難的問題上,,還是預(yù)訓(xùn)練的效果更好,。

也就是說,在兩種情況下,,根據(jù)不同測試時(shí)計(jì)算擴(kuò)展方法是否有效,,關(guān)鍵在于提示的難度

研究還進(jìn)一步比較不同的PRM搜索方法,,結(jié)果顯示前向搜索(最右)需要更多的計(jì)算量,。

圖片

在計(jì)算量較少的情況下,使用計(jì)算最優(yōu)策略最多可節(jié)省4倍資源,。

圖片

對比OpenAI的o1模型,,這篇研究幾乎是給出了相同的結(jié)論。

o1模型學(xué)會完善自己的思維過程,,嘗試不同的策略,,并認(rèn)識到自己的錯(cuò)誤。并且隨著更多的強(qiáng)化學(xué)習(xí)(訓(xùn)練時(shí)計(jì)算)和更多的思考時(shí)間(測試時(shí)計(jì)算),,o1 的性能持續(xù)提高,。

不過OpenAI更快一步發(fā)布了模型,而谷歌這邊使用了PaLM2,,在Gemini2上還沒有更新的發(fā)布,。

網(wǎng)友:護(hù)城河只剩下硬件了?

這樣的新發(fā)現(xiàn)不免讓人想到去年谷歌內(nèi)部文件里提出的觀點(diǎn):

我們沒有護(hù)城河,,OpenAI也沒有,。開源模型可以打敗ChatGPT。

如今來看,,各家研究速度都很快,,誰也不能確保自己始終領(lǐng)先。

唯一的護(hù)城河,,或許是硬件,。

圖片

(所以馬斯克哐哐建算力中心?)

有人表示,,現(xiàn)在英偉達(dá)直接掌控誰能擁有更多算力,。那么如果谷歌/微軟開發(fā)出了效果更好的定制芯片,,情況又會如何呢?

圖片

值得一提的是,,前段時(shí)間OpenAI首顆芯片曝光,,將采用臺積電最先進(jìn)的A16埃米級工藝,專為Sora視頻應(yīng)用打造,。

顯然,,大模型戰(zhàn)場,只是卷模型本身已經(jīng)不夠了,。

參考鏈接:
https://www./r/singularity/comments/1fhx8ny/deepmind_understands_strawberry_there_is_no_moat/

【研路指北】交流群(知識星球)來了,!考研/保研選導(dǎo)策略,讀研發(fā)SCI論文技巧,,實(shí)習(xí)/校招就業(yè)內(nèi)推碼,,C++高頻面試題,簡歷指導(dǎo),,offer選擇,,優(yōu)秀開源項(xiàng)目,歡迎掃描下方二維碼,,研路指北交流群,!

    本站是提供個(gè)人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,,不代表本站觀點(diǎn),。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,,謹(jǐn)防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報(bào),。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多