作者:吳至文 郭葉軍 宗煒 李鵬 趙娟 來源:華章科技 OpenCV是一個(gè)計(jì)算機(jī)視覺開源庫,,提供了處理圖像和視頻的能力,。OpenCV的影響力非常大,有超過47 000的社區(qū)用戶,,以及超過1400萬次的下載量,。其應(yīng)用領(lǐng)域橫跨圖像處理、交互式藝術(shù),、視頻監(jiān)督,、地圖拼接和高級機(jī)器人等。作為一個(gè)有十幾年歷史的開源項(xiàng)目,,OpenCV擁有廣大的用戶群體和開發(fā)者群體,。 在數(shù)字的世界中,一幅圖像由多個(gè)點(diǎn)(像素)組成,。圖像處理就是對其中一個(gè)像素或者一個(gè)區(qū)域內(nèi)的像素(塊)進(jìn)行處理,。無論是初學(xué)者還是富有經(jīng)驗(yàn)的研發(fā)人員,他們都需要借助軟件工具來分析這些像素和圖像塊,,OpenCV則是其中最常用,、最重要的一個(gè)軟件工具。 OpenCV成為最主要的圖像處理工具包,,是因?yàn)樗δ荦R全,,支持目前主流的圖像、視頻處理算法,,而且對外提供C++,、Python和Java的接口,用戶調(diào)用方便。本書的代碼分析,、示例程序及環(huán)境搭建基于OpenCV 4.1版本,,源代碼位于GitHub的OpenCV倉庫。 01 OpenCV庫OpenCV由各種不同組件組成,。OpenCV源代碼主要由OpenCV core(核心庫),、opencv_contrib和opencv_extra等子倉庫組成。近些年,,OpenCV的主倉庫增加了深度學(xué)習(xí)相關(guān)的子倉庫:OpenVINO(即DLDT, Deep Learning Deployment Toolkit),、open_model_zoo,以及標(biāo)注工具CVAT等,。 下面分別介紹3個(gè)主要的代碼庫:OpenCV core,、opencv_contrib、opencv_extra,。 1. 核心庫OpenCV core 核心庫是OpenCV的主要算法來源,。OpenCV采用模塊化結(jié)構(gòu)設(shè)計(jì),包含了多個(gè)共享或者靜態(tài)庫,。目前OpenCV核心庫提供了很多組件,,如下所示。
2. opencv_contrib opencv_contrib代碼庫主要用于管理新功能模塊的開發(fā),。該庫的設(shè)計(jì)主要基于以下考慮:處于初始開發(fā)階段的功能模塊,,它的API定義會經(jīng)常變化,各種測試也不夠全面,。 為了不影響OpenCV核心模塊的穩(wěn)定性,,這些新功能模塊會發(fā)布到opencv_contrib中。等到模塊足夠成熟并且在社區(qū)得到了足夠的關(guān)注和使用之后,,這個(gè)模塊便會被移到OpenCV核心庫,這意味著核心庫開發(fā)團(tuán)隊(duì)將會對該模塊進(jìn)行全面的測試,,保證這個(gè)模塊具有產(chǎn)品級的質(zhì)量,。 例如,對于DNN這個(gè)模塊,,OpenCV 3.1開始出現(xiàn)在opencv_contrib中,,到了3.3版本才移到了OpenCV核心庫。 opencv_contrib需要和OpenCV核心庫一同編譯,。下載好opencv_contrib的源代碼并在CMake執(zhí)行時(shí)傳入?yún)?shù):-DOPENCV_EXTRA_MODULES_PATH=<opencv_contrib源碼路徑>/modules,。 如果編譯時(shí)遇到問題,則可以在OpenCV核心庫和opencv_contrib庫的問題匯報(bào)頁面,查看一下是否有現(xiàn)成的解決方案,,如果沒有,,則讀者可新建一個(gè)問題。OpenCV是一個(gè)活躍的社區(qū),,只要問題描述清晰,、完整,一般會很快得到反饋,。 3. opencv_extra opencv_extra倉庫存放了運(yùn)行測試和示例程序時(shí)需要使用的一些測試數(shù)據(jù)和腳本,。例如,運(yùn)行DNN模塊測試程序或者示例程序時(shí)需要用到預(yù)訓(xùn)練模型,,這些模型可以通過opencv_extra中的腳本來自動下載,。近些年添加的opencv/open_model_zoo倉庫也增加了很多預(yù)訓(xùn)練好的深度學(xué)習(xí)模型,這些模型大多做過性能和速度上的調(diào)優(yōu),。 02 OpenCV深度學(xué)習(xí)應(yīng)用的典型流程 OpenCV是一個(gè)自包含庫,,可以不依賴于任何第三方庫而運(yùn)行,這個(gè)特性給開發(fā)調(diào)試帶來了很大的便利,。另外,,OpenCV還提供了硬件加速功能,使得算法能夠在各種平臺高效地執(zhí)行,。 下面以一個(gè)識別性別和年齡的深度學(xué)習(xí)應(yīng)用為例,,展現(xiàn)OpenCV深度學(xué)習(xí)應(yīng)用的典型流程。該應(yīng)用使用C++語言,,總共只需要百來行代碼便可實(shí)現(xiàn)人臉檢測,、性別和年齡的識別功能,,還可以方便地使用硬件的加速能力,提高程序的運(yùn)行效率,。此處展示核心流程,,故以偽代碼為例,完整的源代碼由本書的參考代碼庫提供,。 該應(yīng)用的核心流程如下:首先讀取兩個(gè)網(wǎng)絡(luò)模型參數(shù)(分別是性別和年齡),,然后檢測人臉,轉(zhuǎn)換輸入圖像,,最后運(yùn)行網(wǎng)絡(luò)前向預(yù)測,。偽代碼如下: // 引入OpenCV DNN模塊的命名空間using namespace cv::dnn;// 創(chuàng)建人臉檢測器CascadeClassifier cascade;// 導(dǎo)入性別和年齡深度神經(jīng)網(wǎng)絡(luò)模型Net gender_net=dnn::readNetFromCaffe(gender_modelTxt,, gender_modelBin),;Net age_net=dnn::readNetFromCaffe(age_modelTxt, age_modelBin),;// 人臉檢測cascade.load(cascadeName),;cascade.detectMultiScale(input_gray_file, output_faces_data),;// 準(zhǔn)備深度神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)Mat inputBlob=blobFromImage(input.getMat(ACCESS_READ)),;gender_net.setInput(inputBlob, 'data');age_net.setInput(inputBlob, 'data'),;// 執(zhí)行模型的前向運(yùn)算,,即模型推理Mat gender_prob=gender_net.forward('prob');Mat age_prob=age_net.forward('prob'),; 應(yīng)用識別效果如圖1-1所示,。 ▲圖1-1 應(yīng)用識別效果圖 以上偽代碼很好地展示了OpenCV深度學(xué)習(xí)應(yīng)用的典型流程,如圖1-2所示,。 ▲圖1-2 OpenCV深度學(xué)習(xí)應(yīng)用的典型流程 03 OpenCV深度學(xué)習(xí)模塊深度學(xué)習(xí)模塊是OpenCV為支持基于深度學(xué)習(xí)的計(jì)算機(jī)視覺應(yīng)用所加入的新特性,。OpenCV DNN模塊于OpenCV 3.1版本開始出現(xiàn)在opencv_contrib庫中,從3.3版本開始被納入OpenCV核心庫,。 本節(jié)主要講解OpenCV深度學(xué)習(xí)模塊的實(shí)現(xiàn)原理和主要特性,,通過這些內(nèi)容,讀者可以對OpenCV DNN有一個(gè)總體了解,,并對OpenCV深度學(xué)習(xí)模塊的應(yīng)用代碼有一個(gè)初步的印象,。 作為計(jì)算機(jī)視覺領(lǐng)域的“標(biāo)準(zhǔn)庫”,OpenCV為用戶提供深度學(xué)習(xí)的支持是題中應(yīng)有之義,。OpenCV選擇重新實(shí)現(xiàn)一個(gè)深度學(xué)習(xí)框架而不是直接調(diào)用現(xiàn)有的各種框架(如TensorFlow,、Caffe等),有如下幾點(diǎn)原因,。
1. 主要特性 OpenCV深度學(xué)習(xí)模塊只提供網(wǎng)絡(luò)推理功能,,不支持網(wǎng)絡(luò)訓(xùn)練,。像所有的推理框架一樣,加載和運(yùn)行網(wǎng)絡(luò)模型是基本的功能,。深度學(xué)習(xí)模塊支持TensorFlow,、Caffe、Torch,、DarkNet,、ONNX和OpenVINO格式的網(wǎng)絡(luò)模型,用戶無須考慮原格式的差異,。在加載過程中,,各種格式的模型被轉(zhuǎn)換成統(tǒng)一的內(nèi)部網(wǎng)絡(luò)結(jié)構(gòu)。 深度學(xué)習(xí)模塊支持所有的基本網(wǎng)絡(luò)層類型和子結(jié)構(gòu),,包括AbsVal,、AveragePooling、BatchNormalization,、Concatenation,、Convolution (with DILATION)、Crop,、DetectionOutput,、Dropout、Eltwise,、Flatten,、FullConvolution、FullyConnected,、LRN,、LSTM,、MaxPooling、MaxUnpooling,、MVN,、NormalizeBBox、Padding,、Permute,、Power、PReLU,、PriorBox,、Relu、RNN,、Scale,、Shift、Sigmoid,、Slice,、Softmax、Split和Tanh,。 如果需要的層類型不在這個(gè)支持列表之內(nèi),,則可以通過腳注中的申請鏈接來請求新的層類型的支持,OpenCV的開發(fā)者們有可能會在將來加入對該層類型的支持,。讀者也可以自己動手實(shí)現(xiàn)新的層類型,,并把代碼反饋回社區(qū),參與到深度學(xué)習(xí)模塊的開發(fā)中來,。 除了實(shí)現(xiàn)基本的層類型,,支持常見的網(wǎng)絡(luò)架構(gòu)也很重要,經(jīng)過嚴(yán)格測試,,深度學(xué)習(xí)模塊支持的網(wǎng)絡(luò)架構(gòu)如下所示,。
2. OpenCV DNN圖像分類舉例(Python) C++和Python是OpenCV應(yīng)用開發(fā)的主要語言,1.1.2節(jié)介紹了一個(gè)基于C++語言的深度學(xué)習(xí)應(yīng)用,,本節(jié)繼續(xù)介紹一個(gè)基于Python的圖像分類示例,。 首先引入必要的Python庫:
讀入類別文件: with open('synset_words.txt') as f: classes=[x[x.find(' ') + 1:] for x in f] 讀入待分類的圖片:
調(diào)用深度學(xué)習(xí)模塊的blobFromImage方法將圖片對象轉(zhuǎn)換成網(wǎng)絡(luò)模型的輸入張量(tensor),。該張量的大小是224×224,,參數(shù)中的(104,117,123)表示需要從輸入張量減掉的均值,它是從訓(xùn)練網(wǎng)絡(luò)模型時(shí)用到的數(shù)據(jù)集計(jì)算出來的,,這里直接使用即可,。第二個(gè)參數(shù)“1”表示將OpenCV的默認(rèn)通道順序BGR轉(zhuǎn)換成網(wǎng)絡(luò)模型要求的RGB通道順序。 input=cv.dnn.blobFromImage(image, 1, (224, 224), (104, 117, 123)) 下面來加載Caffe網(wǎng)絡(luò)模型,。注意,,相關(guān)的模型參數(shù)和配置文件可在這里下載: http://dl.caffe./bvlc_googlenet.caffemodel https://github.com/opencv/opencv_extra/blob/4.1.0/testdata/dnn/bvlc_googlenet.prototxt
設(shè)置網(wǎng)絡(luò)模型輸入: net.setInput(input) 執(zhí)行網(wǎng)絡(luò)推理并得到輸出結(jié)果:
從網(wǎng)絡(luò)輸出中獲取最大的5個(gè)可能種類的索引值并輸出類別名稱和概率值: indexes=np.argsort(out[0])[-5:]for i in reversed(indexes): print ('class:', classes[i], ' probability:', out[0][i]) 通過這個(gè)例子,我們可以看到一個(gè)基于深度學(xué)習(xí)模型的分類應(yīng)用并不復(fù)雜,,主要分3部分:模型導(dǎo)入,、網(wǎng)絡(luò)執(zhí)行和結(jié)果解析,。 小結(jié)通過本章的學(xué)習(xí),讀者可以了解到OpenCV的主要組成部分,,尤其是OpenCV深度學(xué)習(xí)模塊的基本情況,。基于C++和Python的例子為讀者展示了OpenCV深度學(xué)習(xí)應(yīng)用的主要流程,。 |
|