大模型與云計算,正在成為新時代的淘金者和賣鏟人,。 自ChatGPT刷屏之后的數(shù)月時間,,微軟Azure與OpenAI的示范效應傳導至全球,基本所有能做大模型的廠商都嘗試“淘金”,,其中,,云廠商是一股重要力量,云計算天然適合大規(guī)模的AI任務(wù),,同時云廠商也有人才,、資源等優(yōu)勢,匹配大模型這類技術(shù)密集型工作,。 淘金熱最開始的階段總是最混亂,,淘金者一窩蜂涌向理想之地,競爭很快變得激烈起來,,成功的淘金者是少數(shù),,這和如今的大模型產(chǎn)業(yè)相似。而云廠商同時具備淘金者與賣鏟人的兩種身份,,如何平衡兩者的關(guān)系,,考驗著云廠商的戰(zhàn)略意識。 2023年云棲大會上,,阿里云CTO周靖人表示:“面向智能時代,,阿里云將通過從底層算力到AI平臺再到模型服務(wù)的全棧技術(shù)創(chuàng)新,升級云計算體系,打造一朵AI時代最開放的云,?!?/span> 在現(xiàn)場,周靖人發(fā)布了千億級參數(shù)的通義千問2.0,,但更多的時間花在公布云計算基礎(chǔ)能力的進展上:包括AI基礎(chǔ)設(shè)施的全面升級,、模型應用開發(fā)平臺阿里云百煉以及更加自動化的云等,他宣布阿里云已初步建成AI時代全棧的云計算體系,。 通義千問2.0正式發(fā)布 國外如AWS,、微軟Azure等,國內(nèi)如阿里云,、百度等,,看起來似乎都沒什么兩樣,從基礎(chǔ)設(shè)施到大模型應用,,云廠商能夠包攬大模型鏈條上的大部分環(huán)節(jié),。實則不然,出發(fā)點不同,,決定了云廠商不同的動作,。 仔細觀察國內(nèi)外云廠商的布局就會發(fā)現(xiàn),所有云廠商都面臨云還是大模型的選擇,,國外頭部云廠商更務(wù)實,,以云為先,國內(nèi)云廠商還在觀望,。 ChatGPT火爆之后,,AWS的主打產(chǎn)品不是自研的大模型,而是Amazon Bedrock,,Amazon Bedrock 是一項完全托管的服務(wù),,用戶可調(diào)用亞馬遜自己的基礎(chǔ)模型Amazon Titan,也可以使用其他第三方基礎(chǔ)模型,,并且提供構(gòu)建生成式人工智能應用程序所需的一系列工具鏈,,強調(diào)隱私和安全。 如果說AWS的選擇還可以理解為,,錯失大模型的先發(fā)機會不得不優(yōu)先做云,,那么,,微軟就更有代表性。 2020年,,微軟就發(fā)布了基于Transformer架構(gòu)的語言生成模型Turing NLG,,170億參數(shù)是當時OpenAI的GPT-2的十倍。值得關(guān)注的是,,當ChatGPT取得了現(xiàn)象級熱度,,微軟并沒有再著重強調(diào)自研大模型,而是選擇了深度綁定的方式,,直接基于GPT對外提供服務(wù),。 在最新一季財報中,,微軟收入同比增長了13%至565億美元,,凈利潤同比增長了27%,至222億美元,,微軟表示,,主要得益于對消費者和商業(yè)產(chǎn)品中大型AI模型的不斷增長需求,推動了云消費的增加,。 微軟并不是放棄做大模型,,微軟Azure云是基礎(chǔ)設(shè)施,Copilot作為AI 助手擴展到Windows,、Office,、Bing等軟件,云-AI-軟件的鏈條構(gòu)成了商業(yè)閉環(huán),,微軟要是再把持大模型,,可能會得不償失。 結(jié)合產(chǎn)業(yè)現(xiàn)實來看,,站在云計算的出發(fā)點做大模型,,有足以讓人信服的理由。 大模型是技術(shù)驅(qū)動型創(chuàng)新,,而非場景驅(qū)動型創(chuàng)新,,這就意味著大模型沒有現(xiàn)成的應用場景,說得好聽點是無限可能,,說得難聽點是從零開始,,畢竟ChatGPT很難復制,大模型還是需要找到客戶為之買單的場景,,尤其是B端有更高付費能力和意愿的客戶,。 拿著錘子找釘子,是大模型廠商當下的常態(tài),,而云計算是一條確定且廣闊的賽道,,商業(yè)模式清晰,,賽道規(guī)模足夠大,僅就算力資源來看,,未來AI算力取代通用算力充滿確定性,,不止是目前的訓練需求,未來推理需求將遠超訓練需求,,以大模型算力為云的基本盤,,是云廠商必須抓住的大生意。 除了算力之外,,大模型能夠提高云計算的附加值,,直接提升毛利。IaaS是低毛利生意,,但大模型的訓練任務(wù),,是囊括了算力底座、網(wǎng)絡(luò),、存儲,、大數(shù)據(jù)、AI框架,、AI模型等復雜技術(shù)的系統(tǒng)性工程,,對性能、成本提出了嚴酷挑戰(zhàn),,傳統(tǒng)數(shù)據(jù)中心難堪重任,。 經(jīng)歷了大規(guī)模任務(wù)考驗的云平臺,更適合承載大模型,。周靖人表示,,云計算是做大模型的最佳選擇。更適合跑大模型的云,,本質(zhì)上就是更好的鏟子,,能夠讓大模型廠商挖掘到更高的價值,自然云廠商的價值也會水漲船高,。 某種意義上,,阿里云自己下場做大模型,更像是“打樣”——自己把坑都蹚過了,,知道該往哪里走,,才能更好地說服客戶上云來做大模型。 不過,,從產(chǎn)業(yè)生態(tài)的角度考量,,一家云廠商同時做大模型和云平臺,容易被理解為和客戶競爭,。云廠商做大模型應該把握好度,,既要錘煉出大模型廠商所需要的基礎(chǔ)設(shè)施,,又不至于與客戶爭利。 相比于國外云廠商的堅定做云,國內(nèi)云廠商還在搖擺之中,,不過,,作為中國最大的云計算廠商,,阿里云的表態(tài)可能引起連鎖反應,。 本屆云棲大會,阿里云發(fā)布了諸多產(chǎn)品和服務(wù),,除了國內(nèi)千億級參數(shù)通義千問2.0,,還一次性放出了8個可以直接2C體驗的行業(yè)大模型,還有玲瑯滿目的AI相關(guān)云產(chǎn)品全面升級,。 通義大模型家族 在令人眼花繚亂的發(fā)布背后,,阿里云面向AI時代其實已經(jīng)做出了堅定選擇——做AI時代的基礎(chǔ)設(shè)施、開源路線,、開放平臺,。 首先是AI基礎(chǔ)設(shè)施,大模型是AI基礎(chǔ)設(shè)施呈現(xiàn)的結(jié)果,,實際上,,阿里云內(nèi)部的迭代早已開始,每一次模型的發(fā)展都離不開云,,表面上看是模型的發(fā)布,,背后代表的是阿里云整個AI基礎(chǔ)設(shè)施的升級,高帶寬網(wǎng)絡(luò)的連接,,大規(guī)模資源的管理,,高效彈性的多種算力,數(shù)以萬計的服務(wù)器構(gòu)成了開發(fā)者界面的一臺計算機,。 以阿里云本次云棲大會發(fā)布為例,,全新升級的阿里云人工智能平臺PAI,,底層采用HPN7.0新一代AI集群網(wǎng)絡(luò)架構(gòu),可高效協(xié)同調(diào)度各類芯片,,支持高達10萬卡量級的集群可擴展規(guī)模,,讓超大集群像一臺計算機般高效運轉(zhuǎn)。 阿里云PAI可支撐多個萬億參數(shù)大模型同時訓練,,超大規(guī)模分布式訓練加速比高達96%,,遠超行業(yè)水平;在大模型訓練任務(wù)中,,更可節(jié)省超過50%算力資源,,性能全球領(lǐng)先。 要知道,,大模型訓練大部分時間都在等待,,一個錯誤可能導致有效訓練時間少幾天甚至幾個禮拜,而且大模型規(guī)模越大,、卡數(shù)越多,,出故障的概率就越大,多數(shù)大模型的訓練只使用數(shù)百張卡,,加速比96%意味著算力可以實現(xiàn)接近線性的增長,,而不是絕大多數(shù)時間都在空轉(zhuǎn)浪費資源,背后阿里云平臺做了復雜的系統(tǒng)優(yōu)化,。 做云,, 并不代表阿里云不做大模型,阿里云做大模型是為了更好的做云,,因此阿里云也將大模型逐步開源出來,,并且走開放路線。 今年4月,,阿里云推出自研大模型通義千問,,并先后開源70億及140億參數(shù)規(guī)模的大模型版本,成為國內(nèi)最早開源自研大模型的科技公司,。在2023云棲大會現(xiàn)場,,通義千問2.0正式亮相,基于更大的參數(shù)規(guī)模和更先進的對齊技術(shù),,通義千問2.0在復雜指令理解,、文學創(chuàng)作能力、通用數(shù)學能力,、知識記憶,、幻覺抵御等能力維度上表現(xiàn)優(yōu)異,在多個主流測評集上,,超越GPT-3.5,,獲得接近GPT-4的得分,。 阿里云還“打樣”了8大垂直領(lǐng)域模型——通義聽悟、通義曉蜜,、通義智文,、通義星塵、通義靈碼,、通義法睿,、通義仁心、通義點金,,讓大模型在金融,、醫(yī)療、法律,、編程,、個性化創(chuàng)作等行業(yè)和場景中更易被集成。 通義靈碼等8大垂直領(lǐng)域模型,,將通過網(wǎng)頁嵌入,、API與SDK調(diào)用等方式集成進各行各業(yè),還將通過全新發(fā)布的一站式大模型應用開發(fā)平臺——阿里云百煉,,對外開放,。這也是阿里云降低大模型門檻的一大舉措。 阿里云百煉接入主流三方大模型 周靖人介紹稱,,阿里云百煉集成了國內(nèi)外主流優(yōu)質(zhì)大模型,,包括阿里云自研大模型及Llama2,、Baichuan等三方大模型,。基于阿里云百煉,,開發(fā)者可在5分鐘內(nèi)開發(fā)一款大模型應用,,幾小時“煉”出一個專屬模型,大模型門檻大幅降低,。 在2023云棲大會現(xiàn)場,,周靖人透露,模型社區(qū)阿里云魔搭,,已聚集2300多款AI模型,,共吸引280萬名AI開發(fā)者,魔搭社區(qū)上線僅一年,,AI模型下載量就已突破1億,。 魔搭社區(qū)模型下載量突破1億 云棲大會上,,阿里巴巴集團董事會主席蔡崇信致辭,他強調(diào)最多的詞是“開放”,。蔡崇信說:“我們堅信,,不開放就沒有生態(tài),沒有生態(tài)就沒有未來,。同時,,我們要始終攀登技術(shù)高峰,只有站在更先進,、更穩(wěn)定的技術(shù)能力之上,,才有更大的開放底氣?!?/span> 技術(shù)從來不是護城河,,與其說阿里云在做AI時代的云,不如說阿里云在做大模型時代的云生態(tài),。2022年底,,周靖人首次提出MaaS(Model as a Service,模型即服務(wù))理念,,阿里云已經(jīng)設(shè)想好了未來的藍圖,。 即阿里云通過提供工具與服務(wù),降低使用門檻,,為大模型創(chuàng)業(yè)公司提供全方位服務(wù),,越多元的模型、越繁榮的應用,,中國大模型生態(tài)意義上就更繁榮,,阿里云的機會也就越大。 如此梳理,,便能將阿里云的動作串聯(lián)起來,,AI基礎(chǔ)設(shè)施包括IaaS和PaaS一系列能力,朝著更適合跑大模型的方向演進,應用層面樹立標桿先一步為客戶趟路,,開源,、開放是為了讓客戶、開發(fā)者,、創(chuàng)業(yè)公司,、ISV等角色聚攏在一起,降低溝通成本,,快速推出面向市場的創(chuàng)新,。 以開源為例,國外廠商開源大模型不少,,阿里巴巴是唯一一個開源大模型的國內(nèi)頭部云廠商,,這是阿里云與其他廠商的根本區(qū)別,所以在云廠商紛紛喊著做大模型生態(tài)時,,魔搭社區(qū)早已經(jīng)種下了種子,,并且逐漸生長為中國大模型生態(tài)的森林。 生態(tài)開放策略為阿里云直接贏得了客戶信任,,周靖人介紹,,中國一半大模型公司跑在阿里云上,百川智能,、智譜AI,、零一萬物、昆侖萬維,、vivo,、復旦大學等大批頭部企業(yè)及機構(gòu)均在阿里云上訓練大模型。 截至目前,,中國眾多頭部主流大模型都已通過阿里云對外提供API服務(wù),,包括通義系列、Baichuan系列,、智譜AIChatGLM系列,、姜子牙通用大模型等,大模型廠商與阿里云一同面向客戶,。 百川智能是中國最頭部大模型創(chuàng)業(yè)公司之一,曾創(chuàng)下平均28天迭代一版大模型的紀錄,。王小川介紹,,百川大模型快速的快速迭代和部署離不開云計算的支撐,百川智能和阿里云作為緊密的合作伙伴進行了深入合作,。在雙方的共同努力下,,百川很好地完成了千卡大模型訓練任務(wù)。 大模型也在反哺阿里云,,阿里云成為一朵走向“自動駕駛”的云,。周靖人表示,,“基于阿里云通義大模型,我們對云上產(chǎn)品也進行了AI化改造,,超過30款云產(chǎn)品具備了大模型的能力,,帶來了開發(fā)效率的大幅提升?!?/span> 例如,,阿里云大數(shù)據(jù)治理平臺DataWorks新增了全新的交互形態(tài)——Copilot,用戶只需用自然語言輸入即可生成SQL,,整體開發(fā)與分析可提效30%以上,。阿里云容器、數(shù)據(jù)庫等產(chǎn)品上也提供了類似的開發(fā)體驗,,未來這些能力還將集成到阿里云其他產(chǎn)品上,。 阿里云用大模型驅(qū)動云計算進化,云平臺加持大模型,,并不依靠大模型本身賺錢,,更重要的是找到自己的生態(tài)角色,開源開放的大模型與AI基礎(chǔ)設(shè)施不斷迭代,,為其提供了循環(huán)往復的動力,。 在全新的大模型時代,阿里云又踏上一個新的開始,。 |
|