久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

用Transformer定義所有AI模型,!特斯拉AI總監(jiān)Karpathy發(fā)推感嘆AI融合趨勢

 520jefferson 2021-12-15

來源 | CVer

特斯拉 AI 總監(jiān) Andrej Karpathy 連發(fā)多條推文表示,,AI 不同領(lǐng)域(視覺、語音,、自然語言等)正在打通,,融合速度令人驚嘆。

今日,,特斯拉 AI 總監(jiān),、Autopilot Vision 團隊領(lǐng)導(dǎo)人 Andrej Karpathy 在推特上發(fā)文,對 AI 領(lǐng)域正在進行中的融合(consolidation)表示驚嘆,。

他表示,,「10 年前,視覺,、語音,、自然語言、強化學習等都是完全分離的,,甚至沒有跨領(lǐng)域的論文,。方法也完全不同,通常不是基于機器學習,?!?/p>

Image

從 2010 年開始,視覺,、語言,、自然語言、強化學習等領(lǐng)域的壁壘逐漸打破,,它們開始轉(zhuǎn)向同一個技術(shù)方向,,即機器學習,特別是神經(jīng)網(wǎng)絡(luò),。它們使用的網(wǎng)絡(luò)架構(gòu)具有多樣性,,但至少論文開始讀起來更加相似,基本上都用到了大型數(shù)據(jù)集和網(wǎng)絡(luò)優(yōu)化,。

隨著 AI 技術(shù)的發(fā)展,,近兩年,,不同領(lǐng)域模型架構(gòu)似乎也變得相同起來。很多研究者開始專注于 Transformer 架構(gòu),,在此基礎(chǔ)上做較小的改動以進行研究,。

例如 2018 誕生的 GPT,1.17 億參數(shù),;2019 年 GPT-2,,15 億參數(shù);2020 年更是將其擴展到 1750 億參數(shù) GPT-3,。Karpathy 基于 PyTorch,,僅用 300 行左右的代碼就寫出了一個小型 GPT 訓練庫,并將其命名為 minGPT,,這個 minGPT 能夠進行加法運算和字符級的語言建模,,而且準確率還不錯。核心的 minGPT 庫包含兩個文檔:mingpt/model.py 和 mingpt/trainer.py,。前者包含實際的 Transformer 模型定義,,大約 200 行代碼,后者是一個與 GPT 無關(guān)的 PyTorch 樣板文件,,可用于訓練該模型。

Image

部分代碼截圖,。

197 行完整代碼:https://github.com/karpathy/minGPT/blob/master/mingpt/model.py

隨著模型架構(gòu)的融合,,現(xiàn)在,我們可以向模型輸入詞序列,、圖像 patch 序列,、語音序列、強化學習序列(狀態(tài),、行為,、獎勵)。我們可以在條件設(shè)置中添加任意 token,,這種模式是極其簡單,、靈活的建模框架,。

即使是在某個領(lǐng)域(如視覺)內(nèi)部,,過去在分類、分割,、檢測和生成任務(wù)上存在一些差異,。但是,所有這些也正在轉(zhuǎn)換為相同的框架,,例如 patch 的檢測 take 序列和邊界框的輸出序列,。

現(xiàn)在,,區(qū)別性特征主要包括以下幾個方面:

1)數(shù)據(jù)

2)將自身問題映射到向量序列以及從向量序列映射出自身問題的輸入 / 輸出規(guī)范

3)位置編碼器的類型以及注意力 mask 中針對特定問題的結(jié)構(gòu)化稀疏模式

所以,從技術(shù)上來說,,AI 領(lǐng)域的方方面面,,包括前景、論文,、人才和想法突然之間變得極其相關(guān),。每個人基本上都在使用相同的模型,大多數(shù)改進和想法可以快速地在所有 AI 領(lǐng)域「復(fù)制粘貼」(copy paste),。

正如其他很多人注意到并指出的那樣,,新大腦皮質(zhì)(neocortex)在其所有的輸入模態(tài)中也有一個高度統(tǒng)一的架構(gòu)。也許自然界偶然發(fā)現(xiàn)了一個非常相似的強大架構(gòu),,并以類似的方式復(fù)制了它,,并只在一些細節(jié)上做了改變。

這種架構(gòu)上的融合將使我們專注于軟硬件和基礎(chǔ)設(shè)施建設(shè),,進一步加速 AI 領(lǐng)域的進展,。「無論如何,,這是激動人心的時刻,。」

對于 Andrej Karpathy 描述的 AI 融合趨勢,,網(wǎng)友也紛紛發(fā)表意見,。

推特網(wǎng)友 @Neural Net Nail 表示,「這是一個有價值的見解,。融合將加速 AI 領(lǐng)域的創(chuàng)新步伐,,在邊緣端使用 AI 的尖端產(chǎn)品變得更加可行。我想,,變化(variation)才是質(zhì)量的最大敵人,。」

Image

網(wǎng)友 @sisil mehta 也認為,,「ML 基礎(chǔ)設(shè)施迎來了激動人心的時刻,。隨著模型架構(gòu)的融合,建??蚣芎突A(chǔ)設(shè)施也將融合,。我當然希望 PyTorch Lightning 也會這樣?!?/p>

Image

網(wǎng)友 @Marcos Pereira 表示,,「一方面,處處都在用 transformers,,我們已經(jīng)遇到了障礙,,需要創(chuàng)新,;另一方面,處處都在用 transformers,,所以跟上來吧,。」

Image

原文出自 @Andrej Karpathy 的推特:https://twitter.com/karpathy/status/1468370605229547522

歡迎關(guān)注我們,,看通俗干貨,!

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,,不代表本站觀點,。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,,謹防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報,。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多