久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

“存算一體”打破運行70年的馮諾依曼架構(gòu),,Computing in Memory蓋世神功已有人練成

 liuaqbb 2019-12-08

人工智能芯片需求的帶動,將打破 PC 時代運行超過 70 年的馮諾依曼計算架構(gòu),,接棒而來的技術(shù)是近期很火的名詞:“存算一體”,。

英特爾引領的 PC 時代,長久以來是處理器為王的思路,。然而,,業(yè)界意識到芯片性能真正的瓶頸是卡在存儲器上,近幾年開始,,處理器與芯片的地位是此消彼長,,開始拉近距離。

在人工智能時代降臨后,,這種處理器和存儲芯片分離的馮諾依曼計算架構(gòu)明顯不夠用,,科技業(yè)界開始追求將處理器和存儲結(jié)合成一顆芯片的 “存算一體” 技術(shù),提升性能并且降低功耗,。

存儲與邏輯雙劍合壁,,實現(xiàn) Computing in Memory 

“存算一體”技術(shù)就像是一種蓋世神功,芯片江湖上的每一個大俠都想練成這樣的絕世神功,。

其中,,對于擅長邏輯工藝,又懂存儲技術(shù)的半導體廠,,自然是如魚得水,,而究竟是把 DRAM 放到邏輯芯片上?還是把處理器放到 DRAM 里,?才能實現(xiàn)“存算一體”,,同時跨足存儲技術(shù)和晶圓代工的力晶集團選擇以后者方式實現(xiàn),。

力晶曾是臺灣最主要的 DRAM 供應商之一,當時的 DRAM 技術(shù)合作伙伴是日本 DRAM 大廠爾必達,。日前,,爾必達前社長坂本幸雄才正式加入紫光集團,擔任紫光集團高級副總裁暨日本分公司首席執(zhí)行官,。

在今日三星,、SK 海力士、美光將 DRAM 產(chǎn)業(yè)三分天下之前,,全球存儲行業(yè)是處于群雄割據(jù)的時代,,爾必達這一支的勢力,匯集了日本半導體產(chǎn)業(yè)十多年來的歷史和技術(shù)積累,。

隨著爾必達破產(chǎn)退出全球競爭舞臺,,并成為歷史名詞后,合作伙伴力晶也開始思索轉(zhuǎn)型之路,,之后陸續(xù)轉(zhuǎn)型至晶圓代工廠,,生產(chǎn)驅(qū)動芯片、CIS,、NOR Flash 芯片等,。

力晶創(chuàng)辦人黃崇仁回憶,很久前在與日本三菱電機合作時,,對方就提出把存儲器放到 CPU 中的概念,,當時這樣想法被認為是異想天開,因為存儲和邏輯工藝不一樣,,耐溫性也不同,,用當時的思路去做,邏輯單元可能會先燒掉,。

漸漸地,,開始有人換個思考模式,如果把 CPU 放到存儲器中,,或許是另一條路,,雖然也不容易,,但多年后,,力晶將這樣的 “存算一體” 架構(gòu)實現(xiàn)了。

力晶提出 “Computing in Memory” 技術(shù)平臺,,把 DRAM 和邏輯單元做在同一顆芯片上,,省去當中的 IO,第一個應用是加速器產(chǎn)品,,法商 Upmem 已經(jīng)開始導入,,優(yōu)勢是在資料重度存儲的環(huán)境下,,運算效能能提升 20 倍,系統(tǒng)節(jié)能效率提升 10 倍,。

黃崇仁解釋這樣的概念,,像是現(xiàn)在邏輯工藝中,也會有嵌入式存儲器(embedded flash)技術(shù),,就是在傳統(tǒng)邏輯處理芯片設置上嵌入式存儲器,,反過來,Computing in Memroy 的概念是在 DRAM 中嵌入邏輯電路,,打造 “存算一體” 架構(gòu),。

這樣架構(gòu)會出現(xiàn)兩大優(yōu)勢,第一是大幅降低資料在存儲器與處理器之間往返的負擔,,第二是因此降低芯片的能耗,,實現(xiàn)環(huán)保芯片 Green Chip 概念。

力晶本身有晶圓代工技術(shù),、DRAM 工藝,,旗下子公司愛普科技是利基型存儲芯片設計公司,同時擁有邏輯和存儲兩大利劍,,是打造 Computing in Memory 的優(yōu)勢,。

打破 “墻” 的隔閡,處理器和存儲器無障礙溝通

愛普科技執(zhí)行長陳文良分析,,英特爾主宰 CPU 已久,,但到了人工智能時代,大家發(fā)現(xiàn) CPU 運算 AI 芯片特別慢,,認為 GPU 比較好,,之后甚至有 google 的 TPU 等不同架構(gòu)衍生出來。

這過程中出現(xiàn)兩個關鍵問題,,一個是存儲器的帶寬問題,,在 TPU 運算時,搭配 DDR5 或 HBM 存儲器的性能就是會比較突出,。第二個關鍵是,,運算單元數(shù)目的重要性,遠大于運算能力,。

因此,,真正好的硬件架構(gòu),應該是有很多運算單元,,且每一塊都配備充足的存儲資源,,這就是 Computing in Memory 概念。

陳文良表示,,把存儲和邏輯芯片做在一起,,已經(jīng)有很多半導體廠朝這方面鉆研,。例如之前很熱門的 HBM 技術(shù),就是一種新型的 CPU/GPU 架構(gòu),,可垂直堆疊在存儲芯片上,,就像是蓋摩天樓一樣,目的在于縮短資訊流通的時間,。

然而,,即使是最先進是 HBM 作法,仍是出現(xiàn)兩個明顯的物理限制帶來的痛點:帶寬不足和功耗高,。

第一是 CPU/GPU 和 HBM 存儲器之間的連結(jié)數(shù)目,,決定了帶寬,但連結(jié)數(shù)目有其限制,,因此也限制了帶寬,。再者,是運算單元和存儲器之間的距離,,增加了功耗,。

這就像是一堵墻擋在中間,限制了處理器和存儲器的溝通,,無論把墻做的多薄,,或是互聯(lián)性再高,墻仍是存在,,而一勞永逸的方式,,是把墻打掉,把處理器和存儲器結(jié)合在一起,,無障礙溝通,。

存算一體的概念,在過去 10~20 年有很多人嘗試,,像是 DRAM 做到邏輯芯片中,,但技術(shù)障礙遠比想像高,這條路不好走,。

現(xiàn)在分析出兩種做法,,第一種是把邏輯單元搬到芯片中,稱為 eLogic,。

另一個方式是把一片邏輯晶圓和存儲晶圓用 bonding 方式疊在一起,,可以稱為是 Virtual eDRAM。

這樣做有兩大優(yōu)勢,,第一個是拿掉 IO,,而且做在同一個 die 上,帶寬就沒有限制,。

第二是大幅降低功耗,,因為光是存儲和邏輯的資料一直往返傳輸,是非常耗能量的,,如果做在一起,,對于功耗的降低可想而知。

陳文良分析,,這樣的 Computing in Memory 技術(shù)平臺可以將資料傳輸頻寬提升 10~100 倍,,節(jié)省能耗 10~20 倍,非常適合物聯(lián)網(wǎng),、人工智能,、邊緣側(cè)計算的應用。

看中 DRAM 無論是存儲密度,、存取速度,,或是成本都遠優(yōu)于 Flash 和 SRAM,目前已經(jīng)設計出兩顆芯片,,一顆是在 1Gb DRAM 中嵌入 4 顆 ARM M0 微處理器,,另一顆是 1Gb DRAM 中嵌入 RISC-V 微處理器,可以用在物聯(lián)網(wǎng)領域,。

“存算一體”芯片特別適合人工智能,、邊緣側(cè)計算、物聯(lián)網(wǎng)等領域應用,,例如用于監(jiān)測這幾年夏天很容易發(fā)生森林大火的情況,、人臉和物體識別等各種推理應用。

第一家運用 Computing in Memroy 平臺技術(shù)推出產(chǎn)品的是法商 Upmem,。公司表示,,該新產(chǎn)品能以加速器的模式與既有服務器相容,在資料重度存取的應用環(huán)境中,,能將計算效能推升 20 倍,,增進系統(tǒng)節(jié)能效率 10 倍,適合大型云端資料中心使用,。

-End-

    本站是提供個人知識管理的網(wǎng)絡存儲空間,,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點,。請注意甄別內(nèi)容中的聯(lián)系方式,、誘導購買等信息,謹防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多