久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

跑分達(dá)ChatGPT的99%,,人類難以分辨!開源「原駝」爆火,,iPhone都能微調(diào)大模型了

 黃爸爸好 2023-05-27 發(fā)布于上海

自動(dòng)測試分?jǐn)?shù)達(dá)到ChatGPT的99.3%,,人類難以分辨兩者的回答……

這是開源大模型最新成果,來自羊駝家族的又一重磅成員——華盛頓大學(xué)原駝(Guanaco),。

Image

更關(guān)鍵的是,,與原駝一起提出的新方法QLoRA把微調(diào)大模型的顯存需求從>780GB降低到<48GB

開源社區(qū)直接開始狂歡,,相關(guān)論文成為24小時(shí)內(nèi)關(guān)注度最高的AI論文,。

Image

以Meta的美洲駝LLaMA為基礎(chǔ),得到原駝650億參數(shù)版只需要48GB顯存單卡微調(diào)24小時(shí),,330億參數(shù)版只需要24GB顯存單卡微調(diào)12小時(shí),。

24GB顯存,,也就是一塊消費(fèi)級(jí)RTX3090或RTX4090顯卡足以。

不少網(wǎng)友在測試后也表示,,更喜歡它而不是ChatGPT,。

Image

英偉達(dá)科學(xué)家Jim Fan博士對(duì)此評(píng)價(jià)為:大模型小型化的又一里程碑。

先擴(kuò)大規(guī)模再縮小,,將成為開源AI社區(qū)的節(jié)奏,。

Image

而新的高效微調(diào)方法QLoRA迅速被開源社區(qū)接受,HuggingFace也在第一時(shí)間整合上線了相關(guān)代碼,。

Image

GPT-4做裁判,,原駝得分達(dá)到ChatGPT的99.3%

論文中,團(tuán)隊(duì)對(duì)原駝總共做了三項(xiàng)測試,,自動(dòng)評(píng)估,、隨機(jī)匹配和人類評(píng)估。

測試數(shù)據(jù)來自小羊駝Vicuna和Open Assistant,。

自動(dòng)評(píng)估由大模型天花板GPT-4當(dāng)裁判,,對(duì)不同模型的回答進(jìn)行打分,以ChatGPT(GPT3.5)的成績作為100%,。

最終原駝650億版得分達(dá)到ChatGPT的99.3%,,而GPT-4自己的得分是114.5%,谷歌Bard是94.8%,。

Image

隨機(jī)匹配,,采用棋類專業(yè)比賽和電子競技同款的Elo記分機(jī)制,由GPT-4和人類共同做裁判,。

原駝650億和330億版最終得分超過ChatGPT(GPT3.5),。

Image

人類評(píng)估,則是把原駝650億版的回答和ChatGPT的回答匿名亂序放在一起,,人類來盲選哪個(gè)最好,。

論文共同一作表示,研究團(tuán)隊(duì)里的人都很難分辨出來,,并把測試做成了一個(gè)小游戲放在Colab上,開放給大家挑戰(zhàn),。

Image

這里節(jié)選其中一個(gè)問題(附中文翻譯),,你能分辨出哪個(gè)是ChatGPT回答的嗎?

問題:How can I improve my time management skills?(如何提高時(shí)間管理技能,?)

Image

Image

(完整測試地址在文末)

總的來說,,原駝的優(yōu)勢在于不容易被問題中的錯(cuò)誤信息誤導(dǎo),比如能指出地球從來沒有被科學(xué)界認(rèn)為是平的,。

Image

以及擅長心智理論(Theory of Mind),,也就是能推測理解他人的心理狀態(tài),。

Image

但原駝也并非沒有弱點(diǎn),團(tuán)隊(duì)發(fā)發(fā)現(xiàn)它不太擅長數(shù)學(xué),,以及容易用提示注入攻擊把要求保密的信息從它嘴里套出來,。

Image

也有網(wǎng)友表示,雖然一個(gè)模型能在某個(gè)數(shù)據(jù)集上無限接近ChatGPT,,但像ChatGPT那樣通用還是很難的,。

Image

全新方法QLoRA,iPhone都能微調(diào)大模型了

原駝?wù)撐牡暮诵呢暙I(xiàn)是提出新的微調(diào)方法QLoRA,。

其中Q代表量化(Quantization),,用低精度數(shù)據(jù)類型去逼近神經(jīng)網(wǎng)絡(luò)中的高精度浮點(diǎn)數(shù),以提高運(yùn)算效率,。

LoRA是微軟團(tuán)隊(duì)在2021年提出的低秩適應(yīng)(Low-Rank Adaptation)高效微調(diào)方法,,LoRA后來被移植到AI繪畫領(lǐng)域更被大眾熟知,但最早其實(shí)就是用于大語言模型的,。

通常來說,,LoRA微調(diào)與全量微調(diào)相比效果會(huì)更差,但團(tuán)隊(duì)將LoRA添加到所有的線性層解決了這個(gè)問題,。

Image

具體來說,,QLoRA結(jié)合了4-bit量化和LoRA,以及團(tuán)隊(duì)新創(chuàng)的三個(gè)技巧:新數(shù)據(jù)類型4-bit NormalFloat,、分頁優(yōu)化器(Paged Optimizers)雙重量化(Double Quantization),。

最終QLoRA讓4-bit的原駝在所有場景和規(guī)模的測試中匹配16-bit的性能

Image

QLoRA的高效率,,讓團(tuán)隊(duì)在華盛頓大學(xué)的小型GPU集群上每天可以微調(diào)LLaMA 100多次……

最終使用Open Assistant數(shù)據(jù)集微調(diào)的版本性能勝出,,成為原駝大模型。

Open Assistant數(shù)據(jù)集來自非盈利研究組織LAION(訓(xùn)練Stable Diffusion的數(shù)據(jù)集也來自這里),,雖然只有9000個(gè)樣本但質(zhì)量很高,,經(jīng)過開源社區(qū)的人工仔細(xì)驗(yàn)證。

這9000條樣本用于微調(diào)大模型,,比100萬條指令微調(diào)(Instruction Finetune)樣本的谷歌FLAN v2效果還好,。

研究團(tuán)隊(duì)也據(jù)此提出兩個(gè)關(guān)鍵結(jié)論:

  • 數(shù)據(jù)質(zhì)量 >> 數(shù)據(jù)數(shù)量

  • 指令微調(diào)有利于推理,但不利于聊天

最后,,QLoRA的高效率,,還意味著可以用在手機(jī)上,論文共同一作Tim Dettmers估計(jì)以iPhone 12 Plus的算力每個(gè)晚上能微調(diào)300萬個(gè)單詞的數(shù)據(jù)量,。

這意味著,,很快手機(jī)上的每個(gè)App都能用上專用大模型。

Image

論文:
https:///abs/2305.14314

GitHub:
https://github.com/artidoro/qlora

與ChatGPT對(duì)比測試:
https://colab.research.google.com/drive/1kK6xasHiav9nhiRUJjPMZb4fAED4qRHb

330億參數(shù)版在線試玩:
https:///spaces/uwnlp/guanaco-playground-tgi

參考鏈接:
[1]
https://twitter.com/Tim_Dettmers/status/1661379376225697794
[2]https:///blog/4bit-transformers-bitsandbytes

「AIGC行業(yè)社群」招募中,!

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,,所有內(nèi)容均由用戶發(fā)布,,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購買等信息,,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請(qǐng)點(diǎn)擊一鍵舉報(bào),。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多