久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

14種輕量級(jí)網(wǎng)絡(luò)綜述 — 主干網(wǎng)絡(luò)篇

 520jefferson 2021-07-27
作者丨VincentLee
來源丨曉飛的算法工程筆記
編輯丨極市平臺(tái)

極市導(dǎo)讀

 

早期的卷積神經(jīng)很少考慮參數(shù)量和計(jì)算量的問題,由此輕量級(jí)網(wǎng)絡(luò)誕生,,其旨在保持模型精度基礎(chǔ)上近一步減少模型參數(shù)量和復(fù)雜度,。本文對(duì)主要的輕量級(jí)網(wǎng)絡(luò)進(jìn)行了簡述,讓大家對(duì)輕量級(jí)網(wǎng)絡(luò)的發(fā)展歷程以及種類有更加清晰的了解,。 

輕量級(jí)網(wǎng)絡(luò)的核心是在盡量保持精度的前提下,,從體積和速度兩方面對(duì)網(wǎng)絡(luò)進(jìn)行輕量化改造,本文對(duì)輕量級(jí)網(wǎng)絡(luò)進(jìn)行簡述,,主要涉及以下網(wǎng)絡(luò):

  • SqueezeNet系列
  • ShuffleNet系列
  • MnasNet
  • MobileNet系列
  • CondenseNet
  • ESPNet系列
  • ChannelNets
  • PeleeNet
  • IGC系列
  • FBNet系列
  • EfficientNet
  • GhostNet
  • WeightNet
  • MicroNet

SqueezeNet系列

SqueezeNet系列是比較早期且經(jīng)典的輕量級(jí)網(wǎng)絡(luò),,SqueezeNet使用Fire模塊進(jìn)行參數(shù)壓縮,而SqueezeNext則在此基礎(chǔ)上加入分離卷積進(jìn)行改進(jìn),。雖然SqueezeNet系列不如MobieNet使用廣泛,,但其架構(gòu)思想和實(shí)驗(yàn)結(jié)論還是可以值得借鑒的。

SqueezeNet

SqueezeNet是早期開始關(guān)注輕量化網(wǎng)絡(luò)的研究之一,,使用Fire模塊進(jìn)行參數(shù)壓縮,。

圖片
SqueezeNet的核心模塊為Fire模塊, 結(jié)構(gòu)如圖 1 所示, 輸入層先通過squeeze卷積層 卷 積)進(jìn)行維度壓縮,然后通過expand卷積層 卷積和 卷積混合)進(jìn)行維度擴(kuò)展,。Fire模 塊包含 3 個(gè)參數(shù), 分別為squeeze層的 卷積核數(shù) , expand層的 卷積核數(shù) 和 層的 卷積核數(shù) , 一般

SqueezeNext

SqueezeNext是SqueezeNet實(shí)戰(zhàn)升級(jí)版,,直接和MobileNet對(duì)比性能。SqueezeNext全部使用標(biāo)準(zhǔn)卷積,,分析實(shí)際推理速度,,優(yōu)化的手段集中在網(wǎng)絡(luò)整體結(jié)構(gòu)的優(yōu)化。
圖片
SqueezeNext的設(shè)計(jì)沿用殘差結(jié)構(gòu),,沒有使用當(dāng)時(shí)流行的深度分離卷積,,而是直接使用了分離卷積,設(shè)計(jì)主要基于以下策略:
  • Low Rank Filters ? 低秩分解的核心思想就是將大矩陣分解成多個(gè)小矩陣,,這里使用CP分解(Canonical Polyadic Decomposition), 將 卷積分解成 和 的分離卷積, 參數(shù)量能從 降為 ,。
  • Bottleneck Module ? 參數(shù)量與輸入輸出維度有關(guān),雖然可以使用深度分離卷積來減少計(jì)算量,,但是深度分離卷積在終端系統(tǒng)的計(jì)算并不高效,。因此采用SqueezeNet的squeeze層進(jìn)行輸入維度的壓縮,每個(gè)block的開頭使用連續(xù)兩個(gè)squeeze層,,每層降低1/2維度,。
  • Fully Connected Layers ? 在AlexNet中,全連接層的參數(shù)占總模型的96%,,SqueezeNext使用bottleneck層來降低全連接層的輸入維度,,從而降低網(wǎng)絡(luò)參數(shù)量,。

ShuffleNet系列

ShuffleNet系列是輕量級(jí)網(wǎng)絡(luò)中很重要的一個(gè)系列,ShuffleNetV1提出了channel shuffle操作,,使得網(wǎng)絡(luò)可以盡情地使用分組卷積來加速,,而ShuffleNetV2則推倒V1的大部分設(shè)計(jì),從實(shí)際出發(fā),,提出channel split操作,,在加速網(wǎng)絡(luò)的同時(shí)進(jìn)行了特征重用,達(dá)到了很好的效果,。

ShuffleNet V1

ShuffleNet的核心在于使用channel shuffle操作彌補(bǔ)分組間的信息交流,,使得網(wǎng)絡(luò)可以盡情使用pointwise分組卷積,不僅可以減少主要的網(wǎng)絡(luò)計(jì)算量,,也可以增加卷積的維度,。
圖片
在目前的一些主流網(wǎng)絡(luò)中,通常使用pointwise卷積進(jìn)行維度的降低,,從而降低網(wǎng)絡(luò)的復(fù)雜度,,但由于輸入維度較高,pointwise卷積的開銷也是十分巨大的,。對(duì)于小網(wǎng)絡(luò)而言,,昂貴的pointwise卷積會(huì)帶來明顯的性能下降,比如在ResNext unit中,,pointwise卷積占據(jù)了93.4%的計(jì)算量,。為此,論文引入了分組卷積,,首先探討了兩種ShuffleNet的實(shí)現(xiàn):
  • 圖1a是最直接的方法,,將所有的操作進(jìn)行了絕對(duì)的維度隔離,但這會(huì)導(dǎo)致特定的輸出僅關(guān)聯(lián)了很小一部分的輸入,,阻隔了組間的信息流,,降低了表達(dá)能力。
  • 圖1b對(duì)輸出的維度進(jìn)行重新分配,,首先將每個(gè)組的輸出分成多個(gè)子組,,然后將每個(gè)子組輸入到不同的組中,能夠很好地保留組間的信息流,。
圖1b的思想可以簡單地用channel shuffle操作進(jìn)行實(shí)現(xiàn),如圖1c所示, 假設(shè)包含 組的卷積 層輸出為 維,,首先將輸出reshape()為 , 然后進(jìn)行transpose 0 , 最后再flatten()回 維,。

ShuffleNet V2

ShuffleNetV1的pointwise分組卷積以及bottleneck結(jié)果均會(huì)提高M(jìn)AC,導(dǎo)致不可忽視的計(jì)算損耗,。為了達(dá)到高性能以及高準(zhǔn)確率,,關(guān)鍵是在不通過稠密卷積以及過多分組的情況下,,獲得輸入輸出一樣的大維度卷積。ShuffleNet V2從實(shí)踐出發(fā),,以實(shí)際的推理速度為指導(dǎo),,總結(jié)出了5條輕量級(jí)網(wǎng)絡(luò)的設(shè)計(jì)要領(lǐng),并根據(jù)要領(lǐng)提出了ShuffleNetV2,,很好地兼顧了準(zhǔn)確率和速度,,其中channel split操作十分亮眼,將輸入特征分成兩部分,,達(dá)到了類似DenseNet的特征重用效果,。
圖片
ShuffeNetV1的unit結(jié)構(gòu)如圖3ab所示, 在V1的基礎(chǔ)上加入channel split操作, 如圖3c所示。在每個(gè)unit的開頭, 將特征圖分為 兩部分,,一個(gè)分支直接往后傳遞,,另一個(gè)分支包 含3個(gè)輸入輸出維度一樣的卷積。V2不再使用分組卷積, 因?yàn)閡nit的開頭已經(jīng)相當(dāng)于進(jìn)行了分 組卷積,。在完成卷積操作后,,將特征concate, 恢復(fù)到unit的輸入大小, 然后進(jìn)行channel shuffle操作。這里沒有了element-wise adddition操作,,也節(jié)省了一些計(jì)算量,,在實(shí)現(xiàn)的時(shí)候?qū)oncat/channel shuffle/channel split合在一起做了,能夠進(jìn)一步提升性能,。? 空間下采樣時(shí)對(duì)unit進(jìn)行了少量的修改,,如圖3d所示,去掉了channel split操作,,因此輸出大小降低一倍,,而維度則會(huì)增加一倍。

MnasNet

圖片
論文提出了移動(dòng)端的神經(jīng)網(wǎng)絡(luò)架構(gòu)搜索方法,,該方法主要有兩個(gè)思路,,首先使用多目標(biāo)優(yōu)化方法將模型在實(shí)際設(shè)備上的耗時(shí)融入搜索中,然后使用分解的層次搜索空間讓網(wǎng)絡(luò)保持層多樣性的同時(shí),,搜索空間依然很簡潔,,MnasNet能夠在準(zhǔn)確率和耗時(shí)中有更好的trade off

MobileNet系列

MobileNet系列是很重要的輕量級(jí)網(wǎng)絡(luò)家族,出自谷歌,,MobileNetV1使用深度可分離卷積構(gòu)建輕量級(jí)網(wǎng)絡(luò),,MobileNetV2提出創(chuàng)新的inverted residual with linear bottleneck單元,雖然層數(shù)變多了,,但是整體網(wǎng)絡(luò)準(zhǔn)確率和速度都有提升,,MobileNetV3則結(jié)合AutoML技術(shù)與人工微調(diào)進(jìn)行更輕量級(jí)的網(wǎng)絡(luò)構(gòu)建。

MobileNetV1

MobileNetV1基于深度可分離卷積構(gòu)建了非常輕量且延遲小的模型,,并且可以通過兩個(gè)超參數(shù)進(jìn)一步控制模型的大小,,該模型能夠應(yīng)用到終端設(shè)備中,,具有很重要的實(shí)踐意義。
圖片
MobileNet通過深度可分離卷積優(yōu)進(jìn)行計(jì)算量優(yōu)化,,將標(biāo)準(zhǔn)卷積轉(zhuǎn)化為深度卷積和pointwise卷積,,每層后面都會(huì)接BN和ReLU。

MobileNetV2

圖片
MobileNetV2首先表明高維特征實(shí)際可以用緊湊的低維特征表達(dá),,然后提出了新的層單元inverted residual with linear bottleneck,,該結(jié)構(gòu)與殘差網(wǎng)絡(luò)單元類似,都包含shorcut,,區(qū)別在于該結(jié)構(gòu)是輸入輸出維度少,,中間通過線性卷積先擴(kuò)展升維,然后通過深度卷積進(jìn)行特征提取,,最后再映射降維,,可以很好地保持網(wǎng)絡(luò)性能且網(wǎng)絡(luò)更加輕量。

MobileNetV3

圖片
MobileNetV3先基于AutoML構(gòu)建網(wǎng)絡(luò),,然后進(jìn)行人工微調(diào)優(yōu)化,,搜索方法使用了platform-aware NAS以及NetAdapt,分別用于全局搜索以及局部搜索,,而人工微調(diào)則調(diào)整了網(wǎng)絡(luò)前后幾層的結(jié)構(gòu),、bottleneck加入SE模塊以及提出計(jì)算高效的h-swish非線性激活。

CondenseNet

DenseNet基于特征復(fù)用,,能夠達(dá)到很好的性能,,但是論文認(rèn)為其內(nèi)在連接存在很多冗余,早期的特征不需要復(fù)用到較后的層,。為此,,論文基于可學(xué)習(xí)分組卷積提出CondenseNet,能夠在訓(xùn)練階段自動(dòng)稀疏網(wǎng)絡(luò)結(jié)構(gòu),,選擇最優(yōu)的輸入輸出連接模式,,并在最后將其轉(zhuǎn)換成常規(guī)的分組卷積分組卷積結(jié)構(gòu)。
圖片
分組卷積的學(xué)習(xí)包含多個(gè)階段,,前半段訓(xùn)練過程包含多個(gè)condensing階段,,結(jié)合引導(dǎo)稀疏化的正則化方法來反復(fù)訓(xùn)練網(wǎng)絡(luò),然后將不重要的filter剪枝,。后半部分為optimization階段,,這個(gè)階段對(duì)剪枝固定后的網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)。

ESPNet系列

ESPNet系列的核心在于空洞卷積金字塔,,每層具有不同的dilation rate,,在參數(shù)量不增加的情況下,,能夠融合多尺度特征,相對(duì)于深度可分離卷積,深度可分離空洞卷積金字塔性價(jià)比更高,。另外,HFF的多尺度特征融合方法也很值得借鑒 ,。

ESPNet

圖片
ESPNet是用于語義分割的輕量級(jí)網(wǎng)絡(luò),,核心在于ESP模塊。如圖a所示,,該模塊包含point-wise卷積和空洞卷積金字塔,,分別用于降低計(jì)算復(fù)雜度以及重采樣有效感受域不同的特征。ESP模塊比其它卷積分解方法(mobilenet/shufflenet)更高效,,ESPNet能在GPU/筆記本/終端設(shè)備上達(dá)到112FPS/21FPS/9FPS,。
另外,論文發(fā)現(xiàn),,盡管空洞卷積金字塔帶來更大的感受域,,但直接concate輸出卻會(huì)帶來奇怪網(wǎng)格紋路。為了解決這個(gè)問題,,論文提出圖b的HFF操作,,在concate之前先將輸出進(jìn)行層級(jí)相加。相對(duì)于添加額外的卷積來進(jìn)行后處理,,HFF能夠有效地解決網(wǎng)格紋路而不帶來過多的計(jì)算量,。另外,為了保證網(wǎng)絡(luò)的梯度傳遞,,在ESP模塊添加了一條從輸入到輸出的shortcut連接,。

ESPNetV2

圖片
ESPNetv2在ESPNet的基礎(chǔ)上結(jié)合深度分離卷積的設(shè)計(jì)方法,進(jìn)行了進(jìn)一步的模型輕量化,。首先將point-wise卷積替換為分組point-wise卷積,,然后將計(jì)算量較大的空洞卷積替換為深度可分離空洞卷積,最后依然使用HFF來消除網(wǎng)格紋路,,輸出特征增加一次特征提取,,得到圖b的結(jié)構(gòu)??紤]到單獨(dú)計(jì)算K個(gè)point-wise卷積等同于單個(gè)分組數(shù)為K的point-wise分組卷積,,而分組卷積的在實(shí)現(xiàn)上更高效,于是改進(jìn)為圖c的最終結(jié)構(gòu),。

ChannelNets

圖片
論文提出channel-wise卷積的概念,,將輸入輸出維度的連接進(jìn)行稀疏化而非全連接,區(qū)別于分組卷積的嚴(yán)格分組,,以類似卷積滑動(dòng)的形式將輸入channel與輸出channel進(jìn)行關(guān)聯(lián),,能夠更好地保留channel間的信息交流?;赾hannel-wise卷積的思想,,論文進(jìn)一步提出了channel-wise深度可分離卷積,,并基于該結(jié)構(gòu)替換網(wǎng)絡(luò)最后的全連接層+全局池化的操作,搭建了ChannelNets,。

PeleeNet

圖片
基于DenseNet的稠密連接思想,,論文通過一系列的結(jié)構(gòu)優(yōu)化,提出了用于移動(dòng)設(shè)備上的網(wǎng)絡(luò)結(jié)構(gòu)PeleeNet,,并且融合SSD提出目標(biāo)檢測網(wǎng)絡(luò)Pelee,。從實(shí)驗(yàn)來看,PeleeNet和Pelee在速度和精度上都是不錯(cuò)的選擇,。

IGC系列

IGC系列網(wǎng)絡(luò)的核心在分組卷積的極致運(yùn)用,,將常規(guī)卷積分解成多個(gè)分組卷積,能夠減少大量參數(shù),,另外互補(bǔ)性原則和排序操作能夠在最少的參數(shù)量情況下保證分組間的信息流通,。但整體而言,雖然使用IGC模塊后參數(shù)量和計(jì)算量降低了,,但網(wǎng)絡(luò)結(jié)構(gòu)變得更為繁瑣,,可能導(dǎo)致在真實(shí)使用時(shí)速度變慢。

IGCV1

圖片
Interleaved group convolution(IGC)模塊包含主分組卷積和次分組卷積,,分別對(duì)主分區(qū)和次 分區(qū)進(jìn)行特征提取, 主分區(qū)通過輸入特征分組獲得, 比如將輸入特征分為 個(gè)分區(qū), 每個(gè)分區(qū) 包含 維特征,,而對(duì)應(yīng)的次分區(qū)則分為 個(gè)分區(qū), 每個(gè)分區(qū)包含 維特征。主分組卷積負(fù)責(zé)對(duì)輸入特征圖進(jìn)行分組特征提取, 而次組卷積負(fù)責(zé)對(duì)主分組卷積的輸出進(jìn)行融合, 為 卷 積,。IGC模塊形式上與深度可分離卷積類似,,但分組的概念貫穿整個(gè)模塊, 也是節(jié)省參數(shù)的關(guān)鍵,另外模塊內(nèi)補(bǔ)充了兩個(gè)排序模塊來保證channel間的信息交流,。

IGCV2

圖片
IGCV1通過兩個(gè)分組卷積來對(duì)原卷積進(jìn)行分解,,減少參數(shù)且保持完整的信息提取。但作者發(fā)現(xiàn),,因?yàn)橹鞣纸M卷積和次分組卷積在分組數(shù)上是互補(bǔ)的,,導(dǎo)致次卷積的分組數(shù)一般較小,每個(gè)分組的維度較大,,次卷積核較為稠密,。為此,IGCV2提出Interleaved Structured Sparse Convolution,,使用多個(gè)連續(xù)的稀疏分組卷積來替換原來的次分組卷積,,每個(gè)分組卷積的分組數(shù)都足夠多,保證卷積核的稀疏性,。

IGCV3

圖片
基于IGCV和bootleneck的思想,,IGCV3結(jié)合低秩卷積核和稀疏卷積核來構(gòu)成稠密卷積核,如圖1所示,IGCV3使用低秩稀疏卷積核(bottleneck模塊)來擴(kuò)展和輸入分組特征的維度以及降低輸出的維度,,中間使用深度卷積提取特征,,另外引入松弛互補(bǔ)性原則,類似于IGCV2的嚴(yán)格互補(bǔ)性原則,,用來應(yīng)對(duì)分組卷積輸入輸出維度不一樣的情況,。

FBNet系列

FBNet系列是完全基于NAS搜索的輕量級(jí)網(wǎng)絡(luò)系列,,分析當(dāng)前搜索方法的缺點(diǎn),,逐步增加創(chuàng)新性改進(jìn),F(xiàn)BNet結(jié)合了DNAS和資源約束,,F(xiàn)BNetV2加入了channel和輸入分辨率的搜索,,F(xiàn)BNetV3則是使用準(zhǔn)確率預(yù)測來進(jìn)行快速的網(wǎng)絡(luò)結(jié)構(gòu)搜索。

FBNet

圖片
論文提出FBNet,,使用可微神經(jīng)網(wǎng)絡(luò)搜索(DNAS)來發(fā)現(xiàn)硬件相關(guān)的輕量級(jí)卷積網(wǎng)絡(luò),,流程如圖1所示。DNAS方法將整體的搜索空間表示為超網(wǎng),,將尋找最優(yōu)網(wǎng)絡(luò)結(jié)構(gòu)問題轉(zhuǎn)換為尋找最優(yōu)的候選block分布,,通過梯度下降來訓(xùn)練block的分布,而且可以為網(wǎng)絡(luò)每層選擇不同的block,。為了更好地估計(jì)網(wǎng)絡(luò)的時(shí)延,,預(yù)先測量并記錄了每個(gè)候選block的實(shí)際時(shí)延,在估算時(shí)直接根據(jù)網(wǎng)絡(luò)結(jié)構(gòu)和對(duì)應(yīng)的時(shí)延累計(jì)即可,。

FBNetV2

圖片
DNAS通過訓(xùn)練包含所有候選網(wǎng)絡(luò)的超網(wǎng)來采樣最優(yōu)的子網(wǎng),,雖然搜索速度快,但需要耗費(fèi)大量的內(nèi)存,,所以搜索空間一般比其它方法要小,,且內(nèi)存消耗和計(jì)算量消耗隨搜索維度線性增加。為了解決這個(gè)問題,,論文提出DMaskingNAS,,將channel數(shù)和輸入分辨率分別以mask和采樣的方式加入到超網(wǎng)中,在帶來少量內(nèi)存和計(jì)算量的情況下,,大幅增加倍搜索空間,。

FBNetV3

圖片
論文認(rèn)為目前的NAS方法大都只滿足網(wǎng)絡(luò)結(jié)構(gòu)的搜索,而沒有在意網(wǎng)絡(luò)性能驗(yàn)證時(shí)的訓(xùn)練參數(shù)的設(shè)置是否合適,,這可能導(dǎo)致模型性能下降,。為此,論文提出JointNAS,,在資源約束的情況下,,同時(shí)搜索最準(zhǔn)確的訓(xùn)練參數(shù)以及網(wǎng)絡(luò)結(jié)構(gòu)。FBNetV3完全脫離了FBNetV2和FBNet的設(shè)計(jì),使用的準(zhǔn)確率預(yù)測器以及基因算法都已經(jīng)在NAS領(lǐng)域有很多應(yīng)用,,主要亮點(diǎn)在于將訓(xùn)練參數(shù)加入到了搜索過程中,,這對(duì)性能的提升十分重要。

EfficientNet

圖片
論文對(duì)模型縮放進(jìn)行深入研究,,提出混合縮放方法,,該方法可以更優(yōu)地選擇寬度、深度和分辨率的維度縮放比例,,從而使得模型能夠達(dá)到更高的精度,。另外,論文通過NAS神經(jīng)架構(gòu)搜索提出EfficientNet,,配合混合縮放方法,,能夠使用很少量的參數(shù)達(dá)到較高的準(zhǔn)確率。

GhostNet

圖片

訓(xùn)練好的網(wǎng)絡(luò)一般都有豐富甚至冗余的特征圖信息來保證對(duì)輸入的理解,,相似的特征圖類似于對(duì)方的ghost,。但冗余的特征是網(wǎng)絡(luò)的關(guān)鍵特性,論文認(rèn)為與其避免冗余特征,,不如以一種cost-efficient的方式接受,,于是提出能用更少參數(shù)提取更多特征的Ghost模塊,首先使用輸出很少的原始卷積操作(非卷積層操作)進(jìn)行輸出,,再對(duì)輸出使用一系列簡單的線性操作來生成更多的特征,。這樣,不用改變其輸出的特征圖數(shù)量,,Ghost模塊的整體的參數(shù)量和計(jì)算量就已經(jīng)降低了,。

WeightNet

圖片

論文提出了一種簡單且高效的動(dòng)態(tài)生成網(wǎng)絡(luò)WeightNet,該結(jié)構(gòu)在權(quán)值空間上集成了SENet和CondConv的特點(diǎn),,在激活向量后面添加一層分組全連接,,直接產(chǎn)生卷積核的權(quán)值,在計(jì)算上十分高效,,并且可通過超參數(shù)的設(shè)置來進(jìn)行準(zhǔn)確率和速度上的trade-off,。

MicroNet

圖片

論文提出應(yīng)對(duì)極低計(jì)算量場景的輕量級(jí)網(wǎng)絡(luò)MicroNet,包含兩個(gè)核心思路Micro-Factorized convolution和Dynamic Shift-Max,,Micro-Factorized convolution通過低秩近似將原卷積分解成多個(gè)小卷積,,保持輸入輸出的連接性并降低連接數(shù),Dynamic Shift-Max通過動(dòng)態(tài)的組間特征融合增加節(jié)點(diǎn)的連接以及提升非線性,,彌補(bǔ)網(wǎng)絡(luò)深度減少帶來的性能降低,。

本文亮點(diǎn)總結(jié)

1.ShuffleNet系列是輕量級(jí)網(wǎng)絡(luò)中很重要的一個(gè)系列,ShuffleNetV1提出了channel shuffle操作,,使得網(wǎng)絡(luò)可以盡情地使用分組卷積來加速,,而ShuffleNetV2則推倒V1的大部分設(shè)計(jì),,從實(shí)際出發(fā),提出channel split操作,,在加速網(wǎng)絡(luò)的同時(shí)進(jìn)行了特征重用,,達(dá)到了很好的效果。

2.FBNet系列是完全基于NAS搜索的輕量級(jí)網(wǎng)絡(luò)系列,,分析當(dāng)前搜索方法的缺點(diǎn),,逐步增加創(chuàng)新性改進(jìn),F(xiàn)BNet結(jié)合了DNAS和資源約束,,F(xiàn)BNetV2加入了channel和輸入分辨率的搜索,,F(xiàn)BNetV3則是使用準(zhǔn)確率預(yù)測來進(jìn)行快速的網(wǎng)絡(luò)結(jié)構(gòu)搜索。

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,,所有內(nèi)容均由用戶發(fā)布,,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購買等信息,謹(jǐn)防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多