作者|李梅 編輯|陳彩嫻 2020年6月,,OpenAI發(fā)布GPT-3,,其千億參數(shù)的規(guī)模和驚人的語言處理能力曾給國內(nèi)AI界帶來極大的震動。但由于GPT-3未對國內(nèi)開放,,一批提供文本生成服務(wù)的商業(yè)公司在海外誕生時,,我們只能望洋興嘆。 今年8月,,倫敦的開源公司Stability AI發(fā)布文生圖模型Stable Diffusion,,并免費開源了模型的權(quán)重和代碼,這迅速引發(fā)了AI作畫應用在全球范圍內(nèi)的爆炸式增長,。 可以說,,今年下半年的AIGC熱潮,開源起到了直接的催化作用,。 而當大模型成為所有人都能參與的游戲時,,得益的并不僅僅是AIGC。 ——1——大模型開源進行時 四年前,,一個名為BERT的語言模型問世,,以3億的參數(shù)量從此改變了AI模型的游戲規(guī)則。 今天,,AI模型的體量已經(jīng)躍升至萬億的規(guī)模,,但大模型的“壟斷性”也隨之日益凸顯: 大公司、大算力,、強算法,、大模型,它們共同堆砌了一道普通開發(fā)者和中小企業(yè)難以闖進的圍墻,。 技術(shù)壁壘,,以及訓練和使用大模型所需的計算資源和基礎(chǔ)設(shè)施,阻礙了我們從「煉」大模型走向「用」大模型的這條路,。因此,,開源迫在眉睫。通過開源讓更多人參與大模型的這場游戲,,將大模型從一種新興的AI技術(shù)轉(zhuǎn)變?yōu)榉€(wěn)健的基礎(chǔ)設(shè)施,,這正在成為許多大模型締造者的共識,。 也是在這樣的共識下,前不久阿里巴巴達摩院在云棲大會上推出的中文模型開源社區(qū)“魔搭”(ModelScope)在AI界引起了很大的關(guān)注,,目前國內(nèi)的一些機構(gòu)已經(jīng)開始在該社區(qū)上貢獻模型,,或是建立自己的開源模型體系。 國外的大模型開源生態(tài)建設(shè)目前來看要領(lǐng)先于國內(nèi),。Stability AI是私營公司出身但自帶開源基因,,有自己龐大的開發(fā)者社區(qū),在開源的同時還有穩(wěn)定的盈利模式,。 今年7月發(fā)布的BLOOM有1760億參數(shù),,是目前最大的開源語言模型,它背后的BigScience更是完美契合了開源精神,,從頭到腳透露著與科技巨頭對弈的氣勢。BigScience由Huggingface帶頭發(fā)起的開放式協(xié)作組織,,并非正式成立的實體,,BLOOM的誕生,是來自70多個國家的1000多名研究人員在超級計算機上訓練了117天的結(jié)果,。 另外,,科技巨頭也并非沒有參與大模型的開源。今年5月,,Meta開源了1750億參數(shù)的大模型OPT,,除了允許OPT可被用于非商業(yè)用途外,還發(fā)布了其代碼以及記錄培訓過程的100頁日志,,可謂開源得十分徹底,。 研究團隊在OPT的論文摘要里直截了當?shù)刂赋觯缚紤]到計算成本,,如果沒有大量資金,,這些模型是很難復制的。對于少數(shù)可通過API獲得的模型,,無法訪問完整的模型權(quán)重,,這致它們難以得到研究」。模型的全稱「Open Pre-trained Transformers」也表明了Meta的開源態(tài)度,。這可以說是暗諷了一把由并不「Open」的OpenAI發(fā)布的GPT-3(僅提供API付費服務(wù)),、以及今年4月谷歌推出的5400億參數(shù)大模型PaLM(未開源)。 在壟斷色彩一向濃厚的大廠中,,Meta這番開源的舉動是一股清流,。當時斯坦福大學基礎(chǔ)模型研究中心的負責人Percy Liang評價道:「這是朝著開辟研究新機遇邁出的令人興奮的一步,一般而言,,我們可以認為更強的開放能夠使研究人員得以解決更深層次的問題,?!?/p> ——2—— 大模型的想象力不應止于AIGC Percy Liang的這句話這也從學術(shù)層面回答了為何大模型一定要做開源的問題。 原創(chuàng)成果的誕生,,需要開源來提供土壤,。 一個研發(fā)團隊訓練出一個大模型,如果止步于在頂級會議上發(fā)表一篇論文,,那么其他研究人員得到的就只是論文中各種「秀肌肉」的數(shù)字,,而看不到模型訓練技術(shù)的更多細節(jié),只能花時間去復現(xiàn),,還不一定能復現(xiàn)成功,。可復現(xiàn)性是科學研究結(jié)果可靠,、可信的一個保證,,有了開放的模型、代碼和數(shù)據(jù)集,,科研人員便能更及時地跟上最前沿的研究,,站在巨人的肩膀上去觸及一顆更高處的果實,這可以省下許多時間成本,、加快技術(shù)創(chuàng)新的速度,。 國內(nèi)在大模型工作上的原創(chuàng)力不足,就主要體現(xiàn)為盲追模型尺寸,、但在底層架構(gòu)上無甚創(chuàng)新,,這是從事大模型研究的業(yè)內(nèi)專家的普遍共識。 清華大學計算機系的劉知遠副教授向AI科技評論指出:國內(nèi)在大模型的架構(gòu)上有一些相對比較創(chuàng)新的工作,,但基本上都還是以Transformer為基礎(chǔ),,國內(nèi)還比較缺乏像Transformer這種奠基式架構(gòu),以及BERT,、GPT-3這樣能夠引起領(lǐng)域大變革的模型,。 IDEA研究院(粵港澳大灣區(qū)數(shù)字經(jīng)濟研究院 )的首席科學家張家興博士也告訴AI科技評論,從百億,、千億到萬億,,我們突破了各種系統(tǒng)上、工程上的挑戰(zhàn)后,,應該要有新的模型結(jié)構(gòu)方面的思考,,而不再是單純地把模型做大。 另一方面,,大模型在技術(shù)上要取得進步,,還需有一套模型評估標準,標準的產(chǎn)生則要求公開和透明,。最近的一些研究正在試圖對眾多大模型提出各種評估指標,,但有一些優(yōu)秀的模型由于不可訪問而被排除在外,,如谷歌在其Pathways架構(gòu)下訓練的大模型PaLM具備超強的語言理解能力,能輕松解釋笑話的笑點,,還有DeepMind的語言大模型Chinchilla,,都沒有開源。 但無論是從模型本身的出色能力還是從這些大廠的地位來看,,它們都本不該缺席這樣的公平競技場,。 一個令人遺憾的事實是,Percy Liang最近與其同事合作的一項研究表明,,與非開源模型相比,,目前的開源模型在許多核心場景上的表現(xiàn)都存在一定的差距。如OPT-175B,、BLOOM-176B以及來自清華大學的GLM-130B等開源大模型,,在各項任務(wù)上幾乎全面輸給了非開源的大模型,后者包括OpenAI的InstructGPT,、Microsoft/NVIDIA的TNLG-530B等等(如下圖),。 圖注:Percy Liang et al. Holistic Evaluation of Language Models 要消解這種尷尬局面,需要各個領(lǐng)頭羊們開源開放自家的優(yōu)質(zhì)大模型,,這樣大模型領(lǐng)域的整體進展才能更快地上一個臺階。 在大模型的產(chǎn)業(yè)落地方面,,開源更是一條必經(jīng)之路,。 若以GPT-3的發(fā)布為起點,大模型經(jīng)過兩年多的你追我趕,,在研發(fā)技術(shù)上已經(jīng)較為成熟,,但在全球范圍內(nèi),大模型的落地都還處于早期階段,。國內(nèi)各個大廠所研發(fā)的大模型固然有內(nèi)部業(yè)務(wù)的落地場景,,但整體上尚未有成熟的商業(yè)化模式。 在大模型落地正處蓄勢待發(fā)之時,,做好開源能夠為將來大規(guī)模的落地生態(tài)打好基礎(chǔ),。 大模型的本質(zhì)決定了落地對開源的需求。阿里巴巴達摩院副院長周靖人告訴AI科技評論,,「大模型是對人類知識體系的抽象與提煉,,所以它能夠應用的場景和產(chǎn)生的價值是巨大的?!苟挥型ㄟ^開源,,大模型的應用潛力才能在眾多有創(chuàng)造力的開發(fā)者那里得到最大限度的釋放。 這是封閉了大模型內(nèi)部技術(shù)細節(jié)的API模式所無法做到的,。首先,,這種模式的適用對象是低開發(fā)能力的模型使用者,,對他們而言,大模型落地的成敗相當于完全掌握在研發(fā)機構(gòu)的手中,。 以提供大模型API付費服務(wù)的最大贏家OpenAI為例,,據(jù)OpenAI的統(tǒng)計,目前全世界已經(jīng)有300多個使用了GPT-3技術(shù)的應用程序,,但這個事實的前提是OpenAI的研發(fā)實力底氣足,、GPT-3也足夠強大。如果模型本身性能不佳,,那么這類開發(fā)者也就束手無策了,。 更關(guān)鍵的是,大模型通過開放API所能提供的能力有限,,難以承接復雜多樣的應用需求,。目前在市場上只是催生出一些具有創(chuàng)意的APP,但整體上還處于一種「玩具」的階段,,遠沒有達到大規(guī)模產(chǎn)業(yè)化的地步,。 「產(chǎn)生的價值沒有那么大,成本又收不回來,,所以基于GPT-3 API的應用場景非常受限,,很多工業(yè)界的人其實并不認可這種方式?!箯埣遗d說道,。的確,像國外的copy.ai,、Jasper這些公司是選擇做AI輔助寫作業(yè)務(wù),,用戶市場相對更大,所以才能產(chǎn)生比較大的商業(yè)價值,,而更多應用還只是小打小鬧,。 相比之下,開源開放做的是「授人以漁」,。 在開源模式下,,企業(yè)憑借公開的源代碼,在已有的基礎(chǔ)框架上進行符合自己業(yè)務(wù)需求的訓練,、二次開發(fā),,這能夠發(fā)揮大模型的通用性優(yōu)勢,釋放遠超于現(xiàn)在的生產(chǎn)力,,最終帶來大模型技術(shù)在產(chǎn)業(yè)中的真正落地,。 作為目前大模型商業(yè)化落地最清晰可見的一條賽道,AIGC的這一波起飛已經(jīng)印證了大模型開源模式的成功,然而在其他更多應用場景上,,大模型的開源開放仍屬少數(shù),,國內(nèi)外皆是如此。西湖大學深度學習實驗室的負責人藍振忠曾向AI科技評論表示,,目前大模型的成果雖然有很多,,但開源極少,普通研究者的訪問有限,,這一點很令人惋惜,。 貢獻、參與,、協(xié)作,,以這些關(guān)鍵詞為核心的開源,能夠匯聚大量懷抱熱情的開發(fā)者,,共同打造一個可能具有變革意義的大模型項目,,讓大模型更快地從實驗室走向產(chǎn)業(yè)。 ——3——不可承受之重:算力 大模型開源的重要性是共識,,但通往開源的路上還有一個巨大的攔路虎:算力,。這也正是當前大模型落地所面臨的最大挑戰(zhàn),。即便Meta開源了OPT,,但到目前為止它似乎還沒有在應用市場上泛起大的漣漪,究其根本,,算力成本仍然是小型開發(fā)者的不可承受之重,,先不說對大模型做微調(diào)、二次開發(fā),,僅僅是做推理都很困難,。正因如此,,在對拼參數(shù)的反思潮下,,不少研發(fā)機構(gòu)轉(zhuǎn)向了做輕量模型的思路,將模型的參數(shù)控制在幾億至幾十億之間,。瀾舟科技推出的「孟子」模型,、IDEA研究院開源的「封神榜」系列模型,都是國內(nèi)走這條路線的代表,。他們將超大模型的各種能力拆分到參數(shù)相對更小的模型上,,已經(jīng)在一些單項任務(wù)上證明了自身超越千億模型的能力。但毫無疑問,,大模型的路必然不會就此停下,,多位業(yè)內(nèi)專家都向AI科技評論表示,大模型的參數(shù)依然有上升空間,,肯定還要有人去繼續(xù)探索更大規(guī)模的模型,。所以我們不得不直面大模型開源后的窘境,,那么,,有哪些解決辦法?我們首先從算力本身的角度來考慮,。未來大規(guī)模計算機群,、算力中心的建設(shè)肯定是一個趨勢,,畢竟端上的計算資源終歸難以滿足需求。但如今摩爾定律已經(jīng)趨緩,,業(yè)界也不乏摩爾定律將要走向終結(jié)的論調(diào),,如果單純地寄希望于算力的提升,,是遠水解不了近渴,?!脯F(xiàn)在一張卡可以跑(就推理而言)一個十億模型,,按目前算力的增長速度,等到一張卡可以跑一個千億模型也就是算力要得到百倍提升,,可能需要十年,。」張家興解釋,。大模型的落地等不了這么久,。另一個方向是在訓練技術(shù)上做文章,加快大模型推理速度,、降低算力成本,、減少能耗,以此來提高大模型的易用性,。比如Meta的OPT(對標GPT-3)只需要16塊英偉達v100 GPU就可以訓練和部署完整模型的代碼庫,,這個數(shù)字是GPT-3的七分之一,。最近,,清華大學與智譜AI聯(lián)合開源的雙語大模型GLM-130B,通過快速推理方法,,已經(jīng)將模型壓縮到可以在一臺A100(40G*8)或V100(32G*8)服務(wù)器上進行單機推理,。在這個方向上努力當然是很有意義的,,大廠們不愿意開源大模型一個不言自明的原因,就是高昂的訓練成本,。此前有專家估計,,GPT-3的訓練使用了上萬塊英偉達v100 GPU,總成本高達2760萬美元,,個人如果要訓練出一個PaLM也要花費900至1700萬美元,。大模型的訓練成本若能降下來,自然也就能提高他們的開源意愿,。但歸根結(jié)底,,這只能從工程上對算力資源的約束起到緩解作用,而并非終極方案,。盡管目前許多千億級,、萬億級的大模型已經(jīng)開始宣傳自己的「低能耗」優(yōu)勢,但算力的圍墻仍然太高,。最終,,我們還是要回到大模型自身尋找突破點,一個十分被看好的方向便是稀疏動態(tài)大模型,。稀疏大模型的特點是容量非常大,,但只有用于給定任務(wù)、樣本或標記的某些部分被激活,。也就是說,,這種稀疏動態(tài)結(jié)構(gòu)能夠讓大模型在參數(shù)量上再躍升幾個層級,同時又不必付出巨大的計算代價,,一舉兩得,。這與GPT-3這樣的稠密大模型相比有著極大的優(yōu)勢,后者需要激活整個神經(jīng)網(wǎng)絡(luò)才能完成即使是最簡單的任務(wù),,資源浪費巨大,。谷歌是稀疏動態(tài)結(jié)構(gòu)的先行者,他們于2017年首次提出了MoE(Sparsely-Gated Mixture-of-Experts Layer,,稀疏門控的專家混合層),,去年推出的1.6萬億參數(shù)大模型Switch Transformers就融合了MoE風格的架構(gòu),訓練效率與他們之前的稠密模型T5-Base Transformer相比提升了7倍,。而今年的PaLM所基于的Pathways統(tǒng)一架構(gòu),,更是稀疏動態(tài)結(jié)構(gòu)的典范:模型能夠動態(tài)地學習網(wǎng)絡(luò)中的特定部分擅長何種任務(wù),,我們根據(jù)需要調(diào)用經(jīng)過網(wǎng)絡(luò)的小路徑即可,,而無需激活整個神經(jīng)網(wǎng)絡(luò)才能完成一項任務(wù)。 圖注:Pathways架構(gòu) 這本質(zhì)上與人腦的運作方式類似,,人腦中有百億個神經(jīng)元,,但在執(zhí)行特定任務(wù)中只激活特定功能的神經(jīng)元,否則巨大的能耗是人難以承受的。大,、通用,,且高效,這種大模型路線無疑具有很強的吸引力,?!敢院笥辛讼∈鑴討B(tài)的加持,計算代價就不會那么大,,但是模型參數(shù)一定會越來越大,,稀疏動態(tài)結(jié)構(gòu)或許會為大模型打開一個新天地,再往十萬億,、百萬億走也沒問題,。」張家興相信,,稀疏動態(tài)結(jié)構(gòu)將是解決大模型尺寸與算力代價之間矛盾的最終途徑,。但他也補充說,在當下這種模型結(jié)構(gòu)還未普及的情況下,,再盲目將模型繼續(xù)做大確實意義不大,。目前國內(nèi)在這個方向上的嘗試還比較少,且不如谷歌做得更徹底,。大模型結(jié)構(gòu)上的探索創(chuàng)新與開源相互促進,,我們需要更多開源來激發(fā)大模型技術(shù)的變革。阻礙大模型開源的,,除了大模型的算力成本導致的低可用性,,還有安全問題。對于大模型尤其是生成大模型開源后帶來的濫用風險,,國外擔憂的聲音似乎更多,,爭議也不少,這成了許多機構(gòu)選擇不開源大模型的憑據(jù),,但或許也是他們拒絕慷慨的一個借口,。OpenAI已經(jīng)因此招致了許多批評。他們在2019年發(fā)布GPT-2時就聲稱,,模型的文本生成能力過于強大,,可能會帶來倫理方面的危害,因而不適合開源,。一年后公開GPT-3時也僅僅提供了API試用,,目前GPT-3的開源版本實際上是由開源社區(qū)自行復現(xiàn)的。 事實上,,對大模型的訪問限制反而會不利于大模型提高穩(wěn)健性,、減少偏見和毒性,。Meta AI的負責人Joelle Pineau在談到開源OPT的決定時,曾誠懇地表示,,單靠自家團隊解決不了全部問題,,比如文本生成過程中可能產(chǎn)生的倫理偏見和惡意詞句。他們認為,,如果做足功課,,就可以在負責任的情況下讓大模型變得可以公開訪問。 在防范濫用風險的同時保持開放獲取和足夠的透明度,,這并非易事,。作為打開了「潘多拉魔盒」的人,Stability AI享受了主動開源帶來的好名聲,,但最近也遭遇了開源帶來的反噬,,在版權(quán)歸屬等方面引起了爭議。開源背后的「自由與安全」這一古老的辯證命題由來已久,,或許并沒有一個絕對正確的答案,,但是在大模型開始走向落地的當下,一個清楚的事實是:大模型開源,,我們做得還遠遠不夠,。兩年多過去,我們已經(jīng)擁有了自己的萬億級別大模型,,在接下來大模型從「讀萬卷書」到「行萬里路」的轉(zhuǎn)變過程中,,開源是一個必然的選擇。最近,,GPT-4正呼之欲出,,所有人都對它能力上的飛躍抱著極大的期待,但我們不知道,,未來它能給多少人釋放多大的生產(chǎn)力,?(公眾號:雷峰網(wǎng)) 參考資料: 1.https:///pdf/2211.09110.pdf 2.北京智源人工智能研究院《中國超大規(guī)模智能模型產(chǎn)業(yè)發(fā)展報告》 公眾號:雷峰網(wǎng) |
|