久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

ECCV 2020附代碼論文合集(目標(biāo)檢測(cè))

 學(xué)術(shù)頭條 2020-11-27

上次我們給大家?guī)?lái)了關(guān)于CNN與圖像分割主題的論文,,本次的主題是目標(biāo)檢測(cè),,包含2D、3D的目標(biāo)檢測(cè),,旋轉(zhuǎn)目標(biāo)檢測(cè),,視頻目標(biāo)檢測(cè),同樣每篇論文都附帶論文代碼,,大家在閱讀論文的同時(shí)也可親自動(dòng)手實(shí)踐,,快來(lái)看看吧!

目標(biāo)檢測(cè)

目標(biāo)檢測(cè)是與計(jì)算機(jī)視覺(jué)與圖像處理的計(jì)算機(jī)技術(shù),,處理的是在數(shù)字圖像和視頻中檢測(cè)出的特定類別的語(yǔ)義對(duì)象(如人類,、建筑物或汽車)的實(shí)例。目標(biāo)檢測(cè)的研究領(lǐng)域包括人臉檢測(cè)和行人檢測(cè),。目標(biāo)檢測(cè)在計(jì)算機(jī)視覺(jué)的許多領(lǐng)域都有應(yīng)用,,包括圖像檢索和視頻監(jiān)控 。

2D目標(biāo)檢測(cè)

1 Dense RepPoints: Representing Visual Objects with Dense Point Sets
作者:Yang Ze,Xu Yinghao,Xue Han,Zhang Zheng,Urtasun Raquel,Wang Liwei,Lin Stephen,Hu Han
機(jī)構(gòu):北京大學(xué),,香港中文大學(xué)
簡(jiǎn)介:本文提出了一種對(duì)象表示法,,稱為dense Rep Points,用于靈活而詳細(xì)地建模對(duì)象外觀和幾何體,。與邊界框的粗幾何定位和特征提取不同,,DenseRepPoints自適應(yīng)地將一組密集的點(diǎn)分布到對(duì)象上具有重要幾何意義的位置,為對(duì)象分析提供信息提示,。技術(shù)的發(fā)展是為了解決與監(jiān)督訓(xùn)練從圖像片段和符號(hào)密集點(diǎn)集相關(guān)的挑戰(zhàn),,并使這種廣泛的表示在理論上是可行的,。此外,該表示的多功能性被用于在多個(gè)粒度級(jí)別上建模對(duì)象結(jié)構(gòu),。稠密的表示點(diǎn)顯著提高了面向幾何的可視化理解任務(wù)的性能,,包括在具有挑戰(zhàn)性的COCO基準(zhǔn)測(cè)試中對(duì)象檢測(cè)的1:6AP增益。

論文鏈接:https://www./pub/5e0333623a55aca24ec3eeed/
代碼地址:https://github.com/justimyhxu/Dense-RepPoints


2 Corner Proposal Network for Anchor-free, Two-stage Object Detection
作者:Kaiwen Duan,Lingxi Xie,Honggang Qi,Song Bai,Qingming Huang,Qi Tian
機(jī)構(gòu):中國(guó)科學(xué)院大學(xué),,華為
簡(jiǎn)介:目標(biāo)檢測(cè)的目標(biāo)是確定目標(biāo)在圖像中的類別和位置,。本文提出了一種新的無(wú)錨的兩階段框架,該框架首先通過(guò)尋找潛在的角點(diǎn)組合來(lái)提取多個(gè)目標(biāo)方案,,然后通過(guò)獨(dú)立的分類階段為每個(gè)方案分配一個(gè)類別標(biāo)簽,。作者證明這兩個(gè)階段分別是提高查全率和查準(zhǔn)率的有效解決方案,并且可以集成到一個(gè)端到端網(wǎng)絡(luò)中,。他們的方法被稱為角點(diǎn)建議網(wǎng)絡(luò)(Corner proposition Network,,CPN),它具有檢測(cè)不同尺度對(duì)象的能力,,并且避免了被大量的誤報(bào)建議所迷惑,。在MS-COCO數(shù)據(jù)集上,CPN達(dá)到了49.2%的AP,,這在現(xiàn)有的目標(biāo)檢測(cè)方法中具有競(jìng)爭(zhēng)力,。CPN同樣適用于計(jì)算效率的場(chǎng)景,在26.2/43.3fps時(shí),,CPN的AP達(dá)到41.6%/39.7%,,超過(guò)了大多數(shù)具有相同推理速度的競(jìng)爭(zhēng)對(duì)手。

論文鏈接:https://www./pub/5f213ebe91e011f62007af97/
代碼地址:https://github.com/Duankaiwen/CPNDet

3 BorderDet: Border Feature for Dense Object Detection
作者:Han Qiu,Yuchen Ma,Zeming Li,Songtao Liu,Jian Sun
機(jī)構(gòu):曠視科技,,西安交通大學(xué)
簡(jiǎn)介:密集型目標(biāo)探測(cè)器依賴于滑動(dòng)窗口模式,,它可以在規(guī)則的圖像網(wǎng)格上預(yù)測(cè)目標(biāo)。同時(shí),,采用網(wǎng)格點(diǎn)上的特征映射生成邊界盒預(yù)測(cè),。點(diǎn)特征使用方便,但可能缺少精確定位的明確邊界信息,。本文提出了一種簡(jiǎn)單高效的邊界對(duì)齊算子,,從邊界的極值點(diǎn)提取“邊界特征”,以增強(qiáng)點(diǎn)特征,。在BorderAlign的基礎(chǔ)上,,作者設(shè)計(jì)了一種新的檢測(cè)體系結(jié)構(gòu)BorderDet,它明確地利用了邊界信息來(lái)實(shí)現(xiàn)更強(qiáng)的分類和更精確的定位,。使用ResNet-50主干,,他們的方法將單級(jí)探測(cè)器FCOS提高了2.8 AP增益(38.6 v.s.41.4),。通過(guò)ResNeXt-101-DCN主干,他們的BorderDet獲得了50.3 AP,,優(yōu)于現(xiàn)有的最新方法,。


論文鏈接:https://www./pub/5f19565a91e01182befeea14/
代碼地址:https://github.com/Megvii-BaseDetection/BorderDet


4 Multi-Scale Positive Sample Refinement for Few-Shot Object Detection
作者:Jiaxi Wu,Songtao Liu,Di Huang,Yunhong Wang
機(jī)構(gòu):北京航空航天大學(xué)
簡(jiǎn)介:少鏡頭目標(biāo)檢測(cè)(FSOD)有助于檢測(cè)器適應(yīng)訓(xùn)練實(shí)例較少的看不見(jiàn)的類,在手動(dòng)標(biāo)注耗時(shí)或數(shù)據(jù)采集受限的情況下非常有用。與以往利用少量鏡頭分類技術(shù)來(lái)促進(jìn)FSOD的嘗試不同,本研究強(qiáng)調(diào)了處理尺度變化問(wèn)題的必要性,,該問(wèn)題由于樣本分布的獨(dú)特性而具有挑戰(zhàn)性。為此,,作者提出了一種多尺度正樣本優(yōu)化(MPSR)方法來(lái)豐富FSOD中的目標(biāo)尺度,。它生成多尺度正樣本作為目標(biāo)金字塔,并在不同尺度上對(duì)預(yù)測(cè)進(jìn)行細(xì)化,。作者通過(guò)將其作為一個(gè)輔助分支集成到流行的快速R-CNN和FPN架構(gòu)中,,展示了它的優(yōu)勢(shì),提供了一個(gè)強(qiáng)大的FSOD解決方案,。在PASCAL-VOC和MS-COCO上進(jìn)行了多個(gè)實(shí)驗(yàn),,結(jié)果表明,該方法取得了最新的結(jié)果,,顯著優(yōu)于其他同類方法,,顯示了其有效性。

論文鏈接:https://www./pub/5f16b7ca91e011b48ae9413e/
代碼地址:https://github.com/jiaxi-wu/MPSR

5 PIoU Loss: Towards Accurate Oriented Object Detection in Complex Environments
作者:Zhiming Chen,Kean Chen,Weiyao Lin,John See,Hui Yu,Yan Ke,Cong Yang
機(jī)構(gòu):擴(kuò)博智能,,上海交通大學(xué)
簡(jiǎn)介:使用定向包圍盒(OBB)進(jìn)行目標(biāo)檢測(cè),可以減少與背景區(qū)域的重疊,,從而更好地定位旋轉(zhuǎn)對(duì)象?,F(xiàn)有的OBB方法大多建立在水平包圍盒探測(cè)器上,通過(guò)引入一個(gè)額外的角度維度,,通過(guò)距離損失來(lái)優(yōu)化,。然而,由于距離損失只會(huì)最小化OBB的角度誤差,,并且它與IoU松散相關(guān),,因此它對(duì)高寬高比的對(duì)象不敏感。因此,,提出了一種新的損失,,像素IoU(PIoU)損失,利用角度和IoU進(jìn)行精確的OBB回歸,。PIoU損失由IoU度量導(dǎo)出,,采用像素形式,簡(jiǎn)單易行,,適用于水平和定向包圍盒,。為了證明其有效性,作者評(píng)估了基于錨定和無(wú)錨框架的PIoU損失,。實(shí)驗(yàn)結(jié)果表明,,PIoU損耗可以顯著提高OBB探測(cè)器的性能,,特別是對(duì)于高寬高比和復(fù)雜背景的目標(biāo)。此外,,以前的評(píng)估數(shù)據(jù)集不包括對(duì)象具有高寬高比的場(chǎng)景,,因此引入了一個(gè)新的數(shù)據(jù)集Retail50K,以鼓勵(lì)社區(qū)采用OBB檢測(cè)器來(lái)適應(yīng)更復(fù)雜的環(huán)境,。


論文鏈接:https://www./pub/5f16be7c91e011b48ae94206/
代碼地址:https://github.com/clobotics/piou

6 Boosting Weakly Supervised Object Detection with Progressive Knowledge Transfer
論文鏈接:https://www./pub/5f116cbb91e011264d4475a6/
代碼地址:https://github.com/mikuhatsune/wsod_transfer

7 Probabilistic Anchor Assignment with IoU Prediction for Object Detection
論文鏈接:
https://www./pub/5f11708491e011264d44761b/
代碼地址:https://github.com/kkhoot/PAA

8 HoughNet: Integrating near and long-range evidence for bottom-up object detection
論文鏈接:https://www./pub/5f044d8d91e0114d4aaa49dc/
代碼地址:https://github.com/nerminsamet/houghnet

9 OS2D: One-Stage One-Shot Object Detection by Matching Anchor Features
論文鏈接:https://www./pub/5e71f49891e0115656f5cfcb/
代碼地址:https://github.com/aosokin/os2d

10 End-to-End Object Detection with Transformers
論文鏈接:https://www./pub/5ece3bcb91e011dc23c22581/
代碼地址:https://github.com/facebookresearch/detr

11 Dynamic R-CNN: Towards High Quality Object Detection via Dynamic Training
論文鏈接:https://www./pub/5e96db3891e01129d1a04120/
代碼地址:https://github.com/hkzhang95/DynamicRCNN

遙感旋轉(zhuǎn)目標(biāo)檢測(cè)

1 Arbitrary-Oriented Object Detection with Circular Smooth Label
作者:
Yang Xue,Yan Junchi
機(jī)構(gòu):上海交通大學(xué)
簡(jiǎn)介:任意方向的目標(biāo)檢測(cè)由于在航空?qǐng)D像,、場(chǎng)景文本、人臉等方面的重要性,,近年來(lái)在視覺(jué)領(lǐng)域引起了越來(lái)越多的關(guān)注,。本文研究了現(xiàn)有的基于回歸的旋轉(zhuǎn)檢測(cè)器存在邊界不連續(xù)的問(wèn)題,這是由角周期性或角點(diǎn)排序直接引起的,。通過(guò)仔細(xì)研究,,作者發(fā)現(xiàn)其根本原因是理想的預(yù)測(cè)超出了規(guī)定的范圍。作者設(shè)計(jì)了一個(gè)新的旋轉(zhuǎn)檢測(cè)基線,,通過(guò)將角度預(yù)測(cè)從回歸問(wèn)題轉(zhuǎn)化為一個(gè)精度損失很小的分類任務(wù)來(lái)解決邊界問(wèn)題,,與以往使用粗粒度旋轉(zhuǎn)檢測(cè)的工作相比,設(shè)計(jì)了高精度的角度分類,。他們還提出了一種圓形平滑標(biāo)簽(CSL)技術(shù)來(lái)處理角度的周期性,,并增加了對(duì)相鄰角的誤差容限。進(jìn)一步介紹了CSL中的四個(gè)窗口函數(shù),,并探討了不同窗口半徑對(duì)檢測(cè)性能的影響,。對(duì)DOTA、HRSC2016以及場(chǎng)景文本數(shù)據(jù)集ICDAR2015和MLT進(jìn)行了大量的實(shí)驗(yàn)和可視化分析,,證明了該方法的有效性,。

論文鏈接:https://www./pub/5e6cacc991e01145573c766b/
代碼地址:https://github.com/Thinklab-SJTU/CSL_RetinaNet_Tensorflow
3D目標(biāo)檢測(cè)

1 Rethinking Pseudo-LiDAR Representation
作者:Xinzhu Ma,Shinan Liu,Zhiyi Xia,Hongwen Zhang,Xingyu Zeng,Wanli Ouyang
機(jī)構(gòu):悉尼大學(xué),商湯科技
簡(jiǎn)介:最近提出的基于偽激光雷達(dá)的三維探測(cè)器大大提高了單目/立體三維探測(cè)任務(wù)的基準(zhǔn),。然而,,研究界對(duì)其潛在的機(jī)制仍不甚清楚。本文對(duì)偽激光雷達(dá)的數(shù)據(jù)表示進(jìn)行了深入研究,,發(fā)現(xiàn)偽激光雷達(dá)表示的有效性來(lái)自于坐標(biāo)變換,,而不是數(shù)據(jù)表示本身。在此基礎(chǔ)上,,作者設(shè)計(jì)了一種基于圖像的CNN探測(cè)器Patch-Net,,它是一種更通用的、可以實(shí)例化為基于偽激光雷達(dá)的3D探測(cè)器,。此外,,本文的PatchNet中的偽激光雷達(dá)數(shù)據(jù)被組織為圖像表示,這意味著現(xiàn)有的2D CNN設(shè)計(jì)可以很容易地用于從輸入數(shù)據(jù)中提取深層特征并提高3D檢測(cè)性能。作者在具有挑戰(zhàn)性的KITTI數(shù)據(jù)集上進(jìn)行了大量的實(shí)驗(yàn),,其中提出的PatchNet優(yōu)于所有現(xiàn)有的基于偽激光雷達(dá)的同類產(chǎn)品,。


論文鏈接:https://www./pub/5f33bd4591e011861cfa0fe6/
論文地址:https://github.com/xinzhuma/patchnet


2 Pillar-based Object Detection for Autonomous Driving
作者:Yue Wang,Alireza Fathi,Abhijit Kundu,David Ross,Caroline Pantofaru,Tom Funkhouser,Justin Solomon
機(jī)構(gòu):MIT,Google
簡(jiǎn)介:本文提出了一種簡(jiǎn)單靈活的自動(dòng)駕駛目標(biāo)檢測(cè)框架,。在觀察到該應(yīng)用中的點(diǎn)云非常稀疏的基礎(chǔ)上,,提出了一種實(shí)用的基于柱的方法來(lái)解決錨定引起的不平衡問(wèn)題。特別地,,本文的算法在多視點(diǎn)特征學(xué)習(xí)中加入了柱面投影,,預(yù)測(cè)了每個(gè)柱而不是每個(gè)點(diǎn)或每個(gè)錨點(diǎn)的邊界盒參數(shù),并且包含了一個(gè)對(duì)齊的柱到點(diǎn)投影模塊來(lái)提高最終預(yù)測(cè),。本文的無(wú)錨方法避免了與以往方法相關(guān)的超參數(shù)搜索,,簡(jiǎn)化了三維目標(biāo)檢測(cè),同時(shí)顯著提高了最先進(jìn)的水平,。

論文鏈接:https://www./pub/5f16d62b91e011b48ae944e9/
代碼地址:https://github.com/WangYueFt/pillar-od

3 EPNet: Enhancing Point Features with Image Semantics for 3D Object Detection
作者:Tengteng Huang,Zhe Liu,Xiwu Chen,Xiang Bai
機(jī)構(gòu):華中科技大學(xué)
簡(jiǎn)介:本文針對(duì)三維檢測(cè)任務(wù)中的兩個(gè)關(guān)鍵問(wèn)題,,即多傳感器(即LiDAR點(diǎn)云和相機(jī)圖像)的開(kāi)發(fā)以及定位和分類置信度之間的不一致性。為此,,作者提出了一種新的融合模塊,,在不需要任何圖像注釋的情況下,對(duì)具有語(yǔ)義特征的點(diǎn)特征進(jìn)行逐點(diǎn)增強(qiáng),。此外,,使用一致性強(qiáng)制損失來(lái)明確鼓勵(lì)本地化和分類可信度的一致性。作者設(shè)計(jì)了一個(gè)端到端的可學(xué)習(xí)框架EPNet來(lái)集成這兩個(gè)組件,。在KITTI和SUN-RGBD數(shù)據(jù)集上進(jìn)行的大量實(shí)驗(yàn)證明了EPNet優(yōu)于最先進(jìn)的方法,。

論文鏈接:https://www./pub/5f156bfa91e011d7db223ac2/
代碼地址:https://github.com/happinesslz/EPNet

視頻目標(biāo)檢測(cè)

1 Learning Where to Focus for Efficient Video Object Detection
作者:Zhengkai Jiang,Y. Liu,Ceyuan Yang,Jihao Liu, Peng Gao,Qian Zhang,Shiming Xiang,C. Pan
機(jī)構(gòu):騰訊
簡(jiǎn)介:將現(xiàn)有的基于圖像的檢測(cè)器轉(zhuǎn)移到視頻中是非常重要的,因?yàn)椴糠终趽?、罕?jiàn)姿勢(shì)和運(yùn)動(dòng)模糊會(huì)導(dǎo)致幀質(zhì)量下降,。以前的方法利用光流翹曲在視頻幀間傳播和聚集特征,。然而,,直接將圖像級(jí)光流應(yīng)用于高層特征可能無(wú)法建立精確的空間對(duì)應(yīng)關(guān)系。為此,,提出了一種新的可學(xué)習(xí)時(shí)空采樣(LSTS)模塊來(lái)準(zhǔn)確地學(xué)習(xí)相鄰幀特征之間的語(yǔ)義級(jí)對(duì)應(yīng)關(guān)系,。首先對(duì)采樣點(diǎn)進(jìn)行隨機(jī)初始化,然后迭代更新,,在檢測(cè)監(jiān)督的指導(dǎo)下逐步尋找更好的空間對(duì)應(yīng)關(guān)系,。此外,還分別引入稀疏遞歸特征更新(SRFU)模塊和密集特征聚合(DFA)模塊來(lái)建模時(shí)間關(guān)系和增強(qiáng)每幀特征,。該方法在imagenetvid數(shù)據(jù)集上實(shí)現(xiàn)了最先進(jìn)的性能,,計(jì)算復(fù)雜度和實(shí)時(shí)速度都很低。

論文鏈接:https:///pdf/1911.05253.pdf
代碼地址:https://github.com/jiangzhengkai/LSTS

AMiner 會(huì)議智圖開(kāi)放平臺(tái) ECCV 2020 專題了解會(huì)議的精彩內(nèi)容,,其內(nèi)容包括論文,、作者,、華人學(xué)者、一作華人學(xué)生,、論文 PPT 和視頻等多維分析服務(wù),,是參會(huì)學(xué)者的會(huì)議智能助理。

頂會(huì)專題鏈接:https://www./conf/eccv2020




    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多