基于深度學(xué)習(xí)多車輛跟蹤研究分析 開題報(bào)告 警察學(xué)專業(yè)_第1頁(yè)
基于深度學(xué)習(xí)多車輛跟蹤研究分析 開題報(bào)告 警察學(xué)專業(yè)_第2頁(yè)
基于深度學(xué)習(xí)多車輛跟蹤研究分析 開題報(bào)告 警察學(xué)專業(yè)_第3頁(yè)
基于深度學(xué)習(xí)多車輛跟蹤研究分析 開題報(bào)告 警察學(xué)專業(yè)_第4頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余1頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、)開題報(bào)告表課題名稱基于深度學(xué)習(xí)多車輛跟蹤研究一、選題依據(jù)(一)論文(設(shè)計(jì))工作的理論意義和應(yīng)用價(jià)值 車輛跟蹤系統(tǒng)對(duì)交通視頻監(jiān)控中提取的視頻序列的目標(biāo)車輛進(jìn)行實(shí)時(shí)準(zhǔn)確定位,并在任意時(shí)刻都能夠提供完整的目標(biāo)區(qū)域,為跟蹤、測(cè)量、管理設(shè)施內(nèi)任意區(qū)域的車輛提供實(shí)時(shí)信息,對(duì)交通狀況進(jìn)行準(zhǔn)確而全面的描述,管理人員根據(jù)描述結(jié)果對(duì)交通進(jìn)行整體規(guī)劃,從而有效管理車輛事件、車輛監(jiān)控、車輛吞吐量、車輛異常等,是精確計(jì)劃、執(zhí)行交通監(jiān)控的基礎(chǔ),是提高交通運(yùn)輸效率不可或缺的支持工具。因此室外車輛的跟蹤具有重要的實(shí)際應(yīng)用價(jià)值和理論研究意義。目前用于跟蹤算法的特征提取方式按照是否通過(guò)自學(xué)習(xí)方式可分為人工設(shè)計(jì)方式和學(xué)習(xí)方式。人

2、工設(shè)計(jì)方式對(duì)目標(biāo)特征的刻畫不夠本質(zhì)且依賴于設(shè)計(jì)者的知識(shí)和技巧,在使用過(guò)程中具有一定的局限性。學(xué)習(xí)方式是由機(jī)器自動(dòng)學(xué)習(xí)特征,它使計(jì)算機(jī)模擬人腦對(duì)視覺(jué)信號(hào)的感知,通過(guò)無(wú)監(jiān)督方式自動(dòng)地從樣本中學(xué)習(xí)表征每一層對(duì)輸入信號(hào)作層次特征表達(dá)。深度學(xué)習(xí)通過(guò)多層神經(jīng)網(wǎng)絡(luò)映射從底層特征學(xué)習(xí)更高級(jí)的抽象層次特征以實(shí)現(xiàn)分類識(shí)別回歸等任務(wù)。近年來(lái),深度學(xué)習(xí)己經(jīng)在圖像分類、像識(shí)別、目標(biāo)檢測(cè)等領(lǐng)域取得了廣泛的應(yīng)用,己經(jīng)成為一種強(qiáng)有力的自動(dòng)特征獲取方法。借助于深度學(xué)習(xí)對(duì)數(shù)據(jù)的分布式特征表示能力,目標(biāo)跟蹤能夠在目標(biāo)信息隨時(shí)間不斷發(fā)生變化過(guò)程中自適應(yīng)表示外觀模型。采用深度學(xué)習(xí)的方法學(xué)習(xí)目標(biāo)的外觀模型表示可以有效提高目標(biāo)跟蹤性能。因

3、此,深度學(xué)習(xí)在室外車輛跟蹤技術(shù)的研究中具有廣闊的應(yīng)用前和重要的研究意義。(二)研究現(xiàn)狀與發(fā)展趨勢(shì)(1)研究現(xiàn)狀:最近國(guó)內(nèi)外學(xué)者己經(jīng)將深度學(xué)習(xí)模型應(yīng)用于視頻目標(biāo)跟蹤中,并取得了一定的成果,這些方法主要遵循兩種思路:第一種就是“離線訓(xùn)練+在線跟蹤”,即利用遷徙學(xué)習(xí)的思想將從大規(guī)模數(shù)據(jù)集中離線訓(xùn)練得到的深度學(xué)習(xí)模型用于在線跟蹤中;第二種是精簡(jiǎn)深度學(xué)習(xí)結(jié)構(gòu),直接進(jìn)行在線跟蹤。(2)發(fā)展趨勢(shì):與單目標(biāo)跟蹤不同的是,多目標(biāo)跟蹤中的檢測(cè)與車輛軌跡的匹配關(guān)聯(lián)問(wèn)題更加復(fù)雜,如何擴(kuò)展深度學(xué)習(xí)在行人重識(shí)別問(wèn)題中的研究成果到多目標(biāo)跟蹤領(lǐng)域,研究適用于多目標(biāo)跟蹤問(wèn)題的深度學(xué)習(xí)算法是具有挑戰(zhàn)性的問(wèn)題。近年來(lái),計(jì)算機(jī)視覺(jué)頂

4、級(jí)會(huì)議和期刊上,研究者從各方面提出了一些解決方案,無(wú)論是離線方式的多目標(biāo)跟蹤還是在線方式的多目標(biāo)跟蹤算法,學(xué)習(xí)檢測(cè)結(jié)果的特征并計(jì)算匹配相似度或者距離度量都是多目標(biāo)跟蹤算法的發(fā)展趨勢(shì)。二、主要研究的目的及內(nèi)容(一)重點(diǎn)解決的問(wèn)題本論文采用深度學(xué)習(xí)檢測(cè)之間的特征相似性,計(jì)算不同檢測(cè)的距離函數(shù),相同目標(biāo)的檢測(cè)距離小,不同目標(biāo)的檢測(cè)距離大,從而構(gòu)造關(guān)于檢測(cè)距離的代價(jià)函數(shù),以此提升多目標(biāo)跟蹤算法的精確度。此外,將實(shí)際目標(biāo)跟蹤數(shù)據(jù)集作為實(shí)驗(yàn)對(duì)象,對(duì)深度學(xué)習(xí)多車輛跟蹤研究方法的準(zhǔn)確率和實(shí)用性進(jìn)行了分析和研究。(二)論文的框架結(jié)構(gòu)第一部分:研究意義及背景;第二部分:深度學(xué)習(xí)模型介紹;第三部分:基于深度學(xué)習(xí)的多

5、車輛跟蹤方法設(shè)計(jì);第四部分:基于深度學(xué)習(xí)的多車輛跟蹤方法實(shí)驗(yàn)過(guò)程及結(jié)果分析;第五部分:結(jié)論;第六部分:參考文獻(xiàn)。(三)本論文(設(shè)計(jì))預(yù)期取得的成果通過(guò)詳細(xì)的調(diào)查研究和實(shí)踐,結(jié)合已有的研究,設(shè)計(jì)出基于深度學(xué)習(xí)的多目標(biāo)跟蹤方法,并且以已知的車輛目標(biāo)跟蹤數(shù)據(jù)集為實(shí)驗(yàn)對(duì)象,對(duì)該認(rèn)定方法的判別準(zhǔn)確率和實(shí)用性方面進(jìn)行分析,著重結(jié)合深度學(xué)習(xí)網(wǎng)絡(luò),獲得較好的目標(biāo)檢測(cè)效果,進(jìn)而提高目標(biāo)跟蹤的準(zhǔn)確度。(四)論文的創(chuàng)新之處 多目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)領(lǐng)域一個(gè)非常具有挑戰(zhàn)性的研究方向,且有著十分廣泛的現(xiàn)實(shí)應(yīng)用場(chǎng)景,例如:智能視頻監(jiān)測(cè)控制、異常行為分析、移動(dòng)機(jī)器人研究等。針對(duì)傳統(tǒng)多目標(biāo)跟蹤算法往往由于目標(biāo)檢測(cè)效果較差,而導(dǎo)

6、致跟蹤效果不佳,提出基于深度學(xué)習(xí)的多目標(biāo)跟蹤算法,并針對(duì)車輛跟蹤這一實(shí)際應(yīng)用場(chǎng)景展開研究,進(jìn)而提高目標(biāo)跟蹤的準(zhǔn)確度。三、研究方法及研究手段本文主要以模擬試驗(yàn)為主,在深入理解消化文獻(xiàn)的基礎(chǔ)知識(shí)上,設(shè)計(jì)并實(shí)現(xiàn)基于深度學(xué)習(xí)的多目標(biāo)跟蹤方法,通過(guò)一系列的車輛跟蹤數(shù)據(jù),嚴(yán)格按照提出問(wèn)題-分析問(wèn)題-建立假設(shè)-模擬實(shí)驗(yàn)-得出結(jié)論的途徑進(jìn)行研究,進(jìn)而完成對(duì)基于深度學(xué)習(xí)的多車輛跟蹤方法研究的說(shuō)明。四、研究進(jìn)度計(jì)劃(1)2018.10.152018.12.20查詢國(guó)內(nèi)外相關(guān)文獻(xiàn),撰寫開題報(bào)告;(2)2018.12.212019.1.1完成了車輛跟蹤數(shù)據(jù)庫(kù)的收集和下載;(3)2019.1.22019.3.10在相關(guān)

7、文獻(xiàn)的基礎(chǔ)上,完成基于深度學(xué)習(xí)的多車輛跟蹤方法的設(shè)計(jì)與實(shí)現(xiàn)。并根據(jù)上一階段采集到的相關(guān)數(shù)據(jù)庫(kù),檢驗(yàn)該跟蹤方法的準(zhǔn)確率,對(duì)不足之處再進(jìn)行優(yōu)化,并且完成實(shí)驗(yàn)數(shù)據(jù)統(tǒng)計(jì),整理歸納論文資料,初步形成論文大綱。(4)2019.3.112019.4.8撰寫論文初稿;(5)2019.4.92019.5.1完成論文的修改以及定稿;(6)2019.5.22019.5.20制作答辯PPT,準(zhǔn)備畢業(yè)答辯;五、參考文獻(xiàn)陸平, 鄧碩, 李偉華. 基于深度學(xué)習(xí)的多目標(biāo)跟蹤算法研究J. 中興通訊技術(shù), 2017, 23(4):14-19.基于深度學(xué)習(xí)的目標(biāo)跟蹤方法研究現(xiàn)狀與展望J. 紅外與激光工程, 2017, 002(5)

8、:6-12.基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究D. 燕山大學(xué), 2017.李賀. 基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究綜述J. 科學(xué)技術(shù)創(chuàng)新, 2017(17):49-49.李曉飛. 基于深度學(xué)習(xí)的行人及騎車人車載圖像識(shí)別方法D.杜省. 基于深度學(xué)習(xí)的室外車輛跟蹤算法研究D.李月峰, 周書仁. 在線多目標(biāo)視頻跟蹤算法綜述J. 計(jì)算技術(shù)與自動(dòng)化, 2018(1).唐聰, 凌永順, 楊華, et al. 基于深度學(xué)習(xí)物體檢測(cè)的視覺(jué)跟蹤方法J. 紅外與激光工程, 2018, v.47;No.283(05):148-158. 吳進(jìn), 董國(guó)豪, 李喬深. 基于區(qū)域卷積神經(jīng)網(wǎng)絡(luò)和光流法的目標(biāo)跟蹤J. 電訊技術(shù), 2

9、018(1):6-12. 戴鉑, 侯志強(qiáng), 余旺盛, et al. 快速深度學(xué)習(xí)的魯棒視覺(jué)跟蹤 J. 中國(guó)圖象圖形學(xué)報(bào), 2016(12):1662-1670,共9頁(yè). Kim C, Li F, Ciptadi A, et al. Multiple Hypothesis Tracking RevisitedC/ IEEE International Conference on Computer Vision. 2015. Tang S , Andres B , Andriluka M , et al. Multi-Person Tracking by Multicut and Deep Mat

10、chingJ. 2016. Leal-Taix, Laura, Ferrer C C , Schindler K . Learning by tracking: Siamese CNN for robust target associationJ. 2016. Chu Q , Ouyang W , Li H , et al. Online Multi-Object Tracking Using CNN-based Single Object Tracker with Spatial-Temporal Attention MechanismJ. 2017. Sadeghian A , Alahi A , Savarese S . Tracking The Untrackable: Learning To Track Multiple Cues with Long-Term DependenciesJ. 2017. Fang K , Xiang Y , Li X , et al. Recurrent Autoregressive Networks for Online Multi-Object TrackingJ. 2017. Keuper M , Levinkov E , Bonneel N , et a

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論