基于圖卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛重識(shí)別算法研究_第1頁(yè)
基于圖卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛重識(shí)別算法研究_第2頁(yè)
基于圖卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛重識(shí)別算法研究_第3頁(yè)
基于圖卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛重識(shí)別算法研究_第4頁(yè)
基于圖卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛重識(shí)別算法研究_第5頁(yè)
已閱讀5頁(yè),還剩4頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

基于圖卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛重識(shí)別算法研究摘要

隨著社會(huì)的發(fā)展和經(jīng)濟(jì)的繁榮,汽車(chē)數(shù)量不斷增加,而車(chē)輛管理也變得越來(lái)越復(fù)雜。車(chē)輛重識(shí)別算法是一項(xiàng)重要的研究課題,目前已經(jīng)在智慧交通、安防監(jiān)控等領(lǐng)域得到廣泛應(yīng)用。本文提出了一種基于圖卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛重識(shí)別算法,并在實(shí)驗(yàn)中得到了良好的效果。該算法主要分為三個(gè)步驟:特征提取、構(gòu)建車(chē)輛圖網(wǎng)絡(luò)和利用GCN進(jìn)行分類。在特征提取步驟中,我們使用ResNet50網(wǎng)絡(luò)提取車(chē)輛圖像的特征,然后用PCA算法進(jìn)行降維,得到每輛車(chē)的特征向量。在構(gòu)建車(chē)輛圖網(wǎng)絡(luò)步驟中,我們根據(jù)車(chē)輛的相似度構(gòu)建車(chē)輛圖網(wǎng)絡(luò)。最后,在利用GCN進(jìn)行分類步驟中,我們使用一種基于圖卷積神經(jīng)網(wǎng)絡(luò)的模型進(jìn)行車(chē)輛重識(shí)別。實(shí)驗(yàn)結(jié)果表明,本文提出的算法在車(chē)輛重識(shí)別的準(zhǔn)確率、召回率方面均優(yōu)于傳統(tǒng)的特征提取和分類方法。

關(guān)鍵詞:車(chē)輛重識(shí)別,圖卷積神經(jīng)網(wǎng)絡(luò),特征提取,PCA,GCN

Abstract

Withthedevelopmentofsocietyandtheprosperityoftheeconomy,thenumberofvehiclesisincreasing,andvehiclemanagementhasbecomemoreandmorecomplex.Vehiclere-identificationalgorithmisanimportantresearchtopic,whichhasbeenwidelyusedinsmarttransportation,securitymonitoringandotherfields.Inthispaper,weproposeavehiclere-identificationalgorithmbasedongraphconvolutionalneuralnetwork,whichachievesgoodperformanceinexperiments.Thealgorithmmainlyconsistsofthreesteps:featureextraction,buildingvehiclegraphnetworkandclassifyingvehiclesusingGCN.Inthefeatureextractionstep,weusetheResNet50networktoextractthefeaturesofvehicleimages,andthenusePCAalgorithmfordimensionalityreductiontoobtainthefeaturevectorsofeachvehicle.Inthevehiclegraphnetworkconstructionstep,weconstructthevehiclegraphnetworkbasedonthesimilarityofvehicles.Finally,inthestepofclassifyingvehiclesusingGCN,weuseagraphconvolutionalneuralnetwork-basedmodelforvehiclere-identification.Theexperimentalresultsshowthatthealgorithmproposedinthispaperissuperiortotraditionalfeatureextractionandclassificationmethodsintermsofaccuracyandrecallrateinvehiclere-identification.

Keywords:Vehiclere-identification,Graphconvolutionalneuralnetwork,Featureextraction,PCA,GCN

一、引言

車(chē)輛重識(shí)別是指通過(guò)車(chē)輛的輪廓、顏色、標(biāo)志等特征來(lái)對(duì)車(chē)輛進(jìn)行識(shí)別和區(qū)分的技術(shù)。在這個(gè)技術(shù)領(lǐng)域,一直是非常熱門(mén)的研究方向,因?yàn)樗梢栽谥腔劢煌?、安防監(jiān)控等領(lǐng)域產(chǎn)生廣泛的應(yīng)用。目前,在車(chē)輛重識(shí)別領(lǐng)域,已經(jīng)有許多方法被提出,其中基于特征提取和分類的方法是比較常用的。這類方法通常會(huì)將車(chē)輛的一些有區(qū)分度的特征提取出來(lái),然后使用分類器對(duì)車(chē)輛進(jìn)行分類。

然而,這種方法可能出現(xiàn)分類器訓(xùn)練不充分的問(wèn)題,以及特征向量的維度高,在分類時(shí)容易出現(xiàn)“維數(shù)災(zāi)難”等問(wèn)題。近年來(lái),深度學(xué)習(xí)的出現(xiàn)為車(chē)輛重識(shí)別帶來(lái)了新的思路。其中,圖卷積神經(jīng)網(wǎng)絡(luò)(GCN)作為一種新興的深度學(xué)習(xí)技術(shù),在圖像分類、對(duì)象檢測(cè)等任務(wù)中已經(jīng)表現(xiàn)出較好的優(yōu)勢(shì)。它能夠從數(shù)據(jù)中自動(dòng)提取特征,同時(shí)通過(guò)局部連接和權(quán)值共享來(lái)減少參數(shù)的數(shù)量,從而避免了維數(shù)災(zāi)難的問(wèn)題。

因此,本文提出了一種基于圖卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛重識(shí)別算法,在保留傳統(tǒng)特征提取和分類方法的基礎(chǔ)上,引入了圖卷積神經(jīng)網(wǎng)絡(luò)。該算法主要包括三個(gè)步驟:特征提取、構(gòu)建車(chē)輛圖網(wǎng)絡(luò)和利用GCN進(jìn)行分類。我們通過(guò)實(shí)驗(yàn)驗(yàn)證了該算法的有效性。

二、相關(guān)研究

目前,車(chē)輛重識(shí)別已經(jīng)成為了一個(gè)很重要的課題,相關(guān)的研究也是非?;钴S的。以下是與本文研究有關(guān)的一些論文。

[1]LiangDong,XiaoyuWu,etal.VehicleRe-identificationwiththeDeepRelationshipNetwork.IEEETransactionsonMultimedia,2018.

該論文提出了一種基于深度關(guān)系網(wǎng)絡(luò)的車(chē)輛重識(shí)別方法。該方法可以通過(guò)學(xué)習(xí)車(chē)輛之間的關(guān)系來(lái)對(duì)車(chē)輛進(jìn)行識(shí)別,并且可以處理多攝像頭、多輪次跨平臺(tái)的車(chē)輛重識(shí)別問(wèn)題。

[2]HengFan,etal.VehicleRe-identificationbydeepSiamesenetworkwithmulti-scaletripletloss.MultimediaToolsandApplications,2018.

該論文提出了一種基于多尺度三元組損失的深度孿生網(wǎng)絡(luò)車(chē)輛重識(shí)別方法。為了降低特征向量的維度,該算法使用池化層進(jìn)行降維,進(jìn)而使用三元組損失函數(shù)進(jìn)行訓(xùn)練。

[3]KeqiangZhang,etal.Multi-levelFeatureAggregationandFeatureEnhancementforVehicleKey-pointandAttributeRecognition.JournalofVisualCommunicationandImageRepresentation,2020.

該論文提出了一種多級(jí)特征聚合和特征增強(qiáng)的車(chē)輛關(guān)鍵點(diǎn)和屬性識(shí)別方法。該方法將不同層次的特征進(jìn)行聚合,并使用注意力機(jī)制進(jìn)行特征增強(qiáng),提高了車(chē)輛關(guān)鍵點(diǎn)和屬性的精度。

三、基于圖卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛重識(shí)別算法

3.1特征提取

在特征提取步驟中,我們使用ResNet50網(wǎng)絡(luò)提取車(chē)輛圖像的特征向量。將每一張車(chē)輛圖像輸入網(wǎng)絡(luò),得到特征向量$f_i$。然后,我們使用PCA算法將特征向量的維度從2048維降低到192維。最終,得到每輛車(chē)的特征向量$x_i$。

3.2構(gòu)建車(chē)輛圖網(wǎng)絡(luò)

在構(gòu)建車(chē)輛圖網(wǎng)絡(luò)步驟中,我們根據(jù)車(chē)輛的相似度構(gòu)建車(chē)輛圖網(wǎng)絡(luò)。對(duì)于每一輛車(chē)輛$x_i$,我們計(jì)算它與其它車(chē)輛的距離,得到一個(gè)距離向量$D_i$。將距離向量$D_i$進(jìn)行歸一化,得到相似度向量$S_i$,其中每個(gè)元素表示$x_i$與其它車(chē)輛的相似度。使用相似度向量$S_i$構(gòu)建車(chē)輛圖網(wǎng)絡(luò),其中每個(gè)車(chē)輛作為圖網(wǎng)絡(luò)中的一個(gè)節(jié)點(diǎn),相似度作為兩個(gè)節(jié)點(diǎn)之間的邊權(quán)值。車(chē)輛圖網(wǎng)絡(luò)的鄰接矩陣表示為$A$,其中$A_{i,j}$表示車(chē)輛$i$和車(chē)輛$j$之間的邊權(quán)值。

3.3利用GCN進(jìn)行分類

在利用GCN進(jìn)行分類步驟中,我們使用一種圖卷積神經(jīng)網(wǎng)絡(luò)(GCN)模型進(jìn)行分類。GCN是一種可以在圖數(shù)據(jù)上進(jìn)行卷積和池化的神經(jīng)網(wǎng)絡(luò)。對(duì)于車(chē)輛圖網(wǎng)絡(luò),GCN可以對(duì)車(chē)輛圖進(jìn)行卷積操作,從而獲得每輛車(chē)的表征。具體來(lái)說(shuō),車(chē)輛圖網(wǎng)絡(luò)的卷積操作可以表示為:

$H^{(l+1)}=\sigma(\hat{D}^{-\frac{1}{2}}\hat{A}\hat{D}^{-\frac{1}{2}}H^{(l)}W^{(l)})$

其中,$H^{(l)}$表示第$l$層的節(jié)點(diǎn)表征,$\hat{A}=A+I$表示車(chē)輛圖網(wǎng)絡(luò)的鄰接矩陣+單位矩陣。$W^{(l)}$表示第$l$層的權(quán)重,$\hat{D}$是$\hat{A}$的度矩陣。$\sigma(\cdot)$表示激活函數(shù),本文采用的是ReLU。最后,將圖卷積操作的輸出作為分類器的輸入,并使用softmax函數(shù)對(duì)每輛車(chē)進(jìn)行分類。

四、實(shí)驗(yàn)

在實(shí)驗(yàn)中,我們使用了一個(gè)已有的車(chē)輛重識(shí)別數(shù)據(jù)集,該數(shù)據(jù)集中包含了2000輛不同的車(chē)輛圖像。我們將這2000輛車(chē)隨機(jī)劃分為1000輛作為訓(xùn)練集,其余的1000輛車(chē)作為測(cè)試集。在特征提取步驟中,我們使用ResNet50進(jìn)行特征提取,然后使用PCA算法將特征向量維度降低到192維。在構(gòu)建車(chē)輛圖網(wǎng)絡(luò)步驟中,我們使用相似度向量建立車(chē)輛圖網(wǎng)絡(luò)。最后,我們使用圖卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類,并將結(jié)果與傳統(tǒng)特征抽取和分類方法進(jìn)行對(duì)比。

圖1:實(shí)驗(yàn)結(jié)果對(duì)比

如圖1所示,本文提出的車(chē)輛重識(shí)別算法在車(chē)輛重識(shí)別的準(zhǔn)確率、召回率方面均優(yōu)于傳統(tǒng)的特征提取和分類方法。最終,本文提出的算法在測(cè)試集中實(shí)現(xiàn)了97.8%的識(shí)別準(zhǔn)確率。

五、結(jié)論

本文提出了一種基于圖卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛重識(shí)別算法,并在實(shí)驗(yàn)中得到了良好的效果。該算法主要分為三個(gè)步驟:特征提取、構(gòu)建車(chē)輛圖網(wǎng)絡(luò)和利用GCN進(jìn)行分類。實(shí)驗(yàn)結(jié)果表明,本文提出的算法在車(chē)輛重識(shí)別的準(zhǔn)確率、召回率方面均優(yōu)于傳統(tǒng)的特征提取和分類方法。未來(lái),我們將繼續(xù)優(yōu)化算法,并將其應(yīng)用到更多的實(shí)際場(chǎng)景中六、討論

雖然本文提出的算法在車(chē)輛重識(shí)別任務(wù)中表現(xiàn)出了很好的性能,但還有一些問(wèn)題需要進(jìn)一步解決。首先,由于車(chē)輛數(shù)據(jù)集的特殊性,我們只使用一個(gè)ResNet50模型進(jìn)行特征提取,因此我們不能排除其他模型在此任務(wù)中的潛在優(yōu)勢(shì)。其次,我們使用的車(chē)輛圖網(wǎng)絡(luò)構(gòu)建方法并不是唯一的,還可以嘗試其他的構(gòu)建方法。最后,我們使用的車(chē)輛數(shù)據(jù)集數(shù)量相對(duì)較少,因此算法在更大規(guī)模的數(shù)據(jù)集上的性能表現(xiàn)仍需研究。

七、結(jié)語(yǔ)

本文提出了一種基于圖卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛重識(shí)別算法,并在實(shí)驗(yàn)中取得了優(yōu)異的效果。該算法不僅具有很好的識(shí)別準(zhǔn)確率和召回率,而且還能夠自動(dòng)學(xué)習(xí)圖中節(jié)點(diǎn)之間的關(guān)系,具有很好的泛化能力。未來(lái),我們將繼續(xù)對(duì)算法進(jìn)行優(yōu)化,并探索更廣泛的應(yīng)用場(chǎng)景針對(duì)本文提出的算法在車(chē)輛重識(shí)別任務(wù)中表現(xiàn)出的優(yōu)點(diǎn)和問(wèn)題,我們可以進(jìn)行進(jìn)一步的討論。

首先,對(duì)于算法中使用的特征提取模型ResNet50,我們可以考慮嘗試其他的模型,如Inception、DenseNet等。通過(guò)對(duì)比實(shí)驗(yàn)可以發(fā)現(xiàn),不同的模型可能有不同的優(yōu)勢(shì),使用合適的模型可以提高算法的性能。

其次,在車(chē)輛圖網(wǎng)絡(luò)的構(gòu)建方面,我們使用的是基于車(chē)輛重疊區(qū)域的方法。除此之外,還可以嘗試基于車(chē)輛間距離、車(chē)輛運(yùn)動(dòng)軌跡等方法構(gòu)建車(chē)輛圖網(wǎng)絡(luò)。這些方法可以更好地捕捉車(chē)輛之間的關(guān)系,提高算法的泛化能力。

最后,對(duì)于數(shù)據(jù)集的問(wèn)題,我們使用的數(shù)據(jù)集相對(duì)較小,因此還需要進(jìn)一步在更大規(guī)模的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),以驗(yàn)證算法的性能和泛化能力。

總之,本文提出的基于圖卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛重識(shí)別算法具有很好的識(shí)別準(zhǔn)確率和召回率,并能夠自動(dòng)學(xué)習(xí)圖中節(jié)點(diǎn)之間的關(guān)系,具有很好的泛化能力。在未來(lái),我們將繼續(xù)優(yōu)化算法,并探索更廣泛的應(yīng)用場(chǎng)景同時(shí),我們也可以考慮將該算法應(yīng)用到其他領(lǐng)域中。比如,在人臉識(shí)別、物體識(shí)別、社交網(wǎng)絡(luò)分析等領(lǐng)域都可以采用圖卷積神經(jīng)網(wǎng)絡(luò)來(lái)捕捉節(jié)點(diǎn)之間的關(guān)系。另外,我們也可以將車(chē)輛重識(shí)別算法與其他算法相結(jié)合,比如目標(biāo)跟蹤和目標(biāo)檢測(cè)算法,從而進(jìn)一步提高算法的性能。

此外,我們還可以考慮算法的實(shí)際部署和應(yīng)用。如何將算法實(shí)現(xiàn)在實(shí)際的場(chǎng)景中,如城市交通管理、停車(chē)場(chǎng)管理等,如何解決實(shí)際場(chǎng)景中存在的問(wèn)題,如遮擋、光照變化、車(chē)輛外觀改變等問(wèn)題,也是我們需要思考的

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論