版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
1、PAGE PAGE - 13 -加入特征空間信息的視覺SLAM閉環(huán)檢測改進方法SLAM(同步定位與地圖構(gòu)建)指自主移動機器人根據(jù)環(huán)境構(gòu)建地圖并確定自身姿態(tài)和位置。相機能獲得廣泛優(yōu)質(zhì)的信息(分辨率足夠高、圖像顏色豐富等),且輕便價格低,基于相機的視覺SLAM方法成為近十年來的研究熱點。閉環(huán)檢測是視覺SLAM的一項重要過程,指判斷自主移動機器人是否回到曾經(jīng)到達過的地點,它是減少機器人位姿累積誤差和地圖不確定性的關(guān)鍵步驟。閉環(huán)檢測有三種方式:map to map、image to image、map to image,實際常采用image to image方式,即序列圖像匹配方法。詞袋(bag of
2、 words,以下使用簡稱BoW)作為主流的圖像相似性匹配方法,被廣泛利用和改進優(yōu)化。Josef Sivi等人使用BoW,結(jié)合文本檢索中的TF-IDF(term frequencyinverse document frequency)模式分配視覺單詞權(quán)重,并加入停止詞,識別視頻中圖片里的相似物體,提高了特征查詢的速度。David Nister等人提出將BoW的視覺單詞作為構(gòu)建樹結(jié)構(gòu)的節(jié)點,假設(shè)節(jié)點個數(shù)為n,它的查找時間復(fù)雜度為O(log n),和時間復(fù)雜度為O(n2)的蠻力搜索方法相比,大大提高了特征搜索的效率。Dorian Galvez-Lpez等人使用二進制描述子BRIEF(Binary
3、Robust Independent Elementary Features,二進制魯棒的獨立基本特征)替換常用的SIFT(Distinctive Image Features from Scale-Invariant Keypoints,尺度不變關(guān)鍵點的獨特圖像特征)或SURF(Speeded-Up Robust Features,加速穩(wěn)健特征),提高了特征匹配速度并節(jié)省特征占用空間。但上述方法均忽略特征空間聯(lián)系,存在較大的投影量化誤差,造成感知歧義,即相同單詞投影到不同區(qū)域,不同單詞卻投影到相同區(qū)域,邊緣單詞發(fā)生此種情況的概率更大。為提升圖像匹配的準(zhǔn)確率,開展了對BoW方法視覺單詞添加空間
4、信息的研究。Nishant Kejriwal等人用128維的SURF描述子表示圖像特征,在使用視覺字典樹結(jié)構(gòu)的BoW模型基礎(chǔ)上加入不同特征點同時出現(xiàn)和空間鄰近關(guān)系的信息,然后用貝葉斯概率方法計算閉環(huán)。該方法應(yīng)用在閉環(huán)檢測中,取得了比傳統(tǒng)BoW方法更高的準(zhǔn)確率,但同時增加了較大時間復(fù)雜度。Svetlana Lazebnik等人提出將圖像分為金字塔多個層級,每層劃分不同大小的區(qū)域,分別統(tǒng)計并量化各層區(qū)域特征,然后通過特征向量相似度來確定匹配圖像,提升了圖像匹配準(zhǔn)確率。李博等人提出帶TF-IDF權(quán)重的視覺字典樹和改進的金字塔得分匹配模型,從視覺字典樹的下層往上層計算節(jié)點相似性增量匹配核函數(shù),通過結(jié)合
5、不同層次單詞關(guān)聯(lián)性,降低投影量化歧義性。該方法改善BoW的視覺單詞本受單詞數(shù)目限制導(dǎo)致性能不佳的不足,提升了檢索效率并減小匹配誤差。因圖像拍攝視角差異等原因,上述針對視覺單詞空間關(guān)系的改進方法魯棒性不高,同時會明顯增加比較特征空間關(guān)系的時間開銷。本文將用于圖像相似性匹配的BoW方法作為改進對象,加入均勻劃分4個區(qū)域的特征空間信息,通過比較全排列特征空間向量,提高閉環(huán)檢測的準(zhǔn)確率,且保證較高效率。1 系統(tǒng)總體結(jié)構(gòu)本文對視覺SLAM的閉環(huán)檢測處理,主要分為三個過程:提取圖像特征點、創(chuàng)建BoW模型、使用全排列特征空間信息檢測確認(rèn)閉環(huán)。具體流程為:首先利用ORB方法提取圖像特征點,以此創(chuàng)建BoW,通過
6、視覺字典樹結(jié)構(gòu)表示BoW,然后計算比較圖像庫圖像(機器人曾走過區(qū)域獲取到的圖像集合)和查詢圖像間向量的相似度。將相似度較大(即相似距離較?。┑膱D像庫圖像作為候選圖像,計算比較它們和查詢圖像特征空間全排列向量的距離,選取距離最小值對應(yīng)的圖像對,作為閉環(huán)。本文所設(shè)計的閉環(huán)檢測過程如圖1所示。2 基于BoW模型的閉環(huán)檢測方法2.1ORB特征提取方法特征提取是物體識別、圖像檢索等常見應(yīng)用的前提步驟,為BoW的創(chuàng)建提供特征點。SIFT特征具有平移、旋轉(zhuǎn)、縮放等不變性,是較魯棒的方法。然而該特征提取方法效率較低,不能較好滿足SLAM實時性要求。折中于速率和穩(wěn)定性的ORB方法,是SLAM特征提取的較好選擇。
7、ORB分為特征點檢測FAST(Features from Accelerated Segment Test,加速分段測試的特征)方法和改進的特征點描述BRIEF方法兩步處理過程。如圖2,F(xiàn)AST方法比較被檢測像素點和以其為圓心的圓上16個像素點的灰度差值,如果有至少連續(xù)12個像素點與中心點的灰度差值同時小于閾值或者同時大于閾值,則被檢測的像素點為特征點,否則不是特征點。該方法簡單可行,效率較高。BRIEF的基本思想是將特征點周圍滿足某一特定分布規(guī)律像素點對的灰度值一一比較,大于關(guān)系用1表示,小于關(guān)系用0表示,將比較結(jié)果有序組成一串由0、1表示的向量,即得到特征描述子,它由二進制數(shù)字組成,節(jié)省了
8、特征存儲空間,使用位異或運算符可提升特征間的比較速度。在ORB方法中,以圖像塊(假設(shè)用A表示)幾何中心和形心的連線作為特征點方向,以此保證BRIEF描述子具有旋轉(zhuǎn)不變性。2.2 創(chuàng)建BoW模型借鑒于文本檢索中單詞反映文本重要信息的作用,將表示圖像局部信息的特征點聚類成無序視覺單詞,將它們組成詞袋,用來表征圖像。對特征點進行k-means聚類得到聚類中心點(視覺單詞)后,對視覺單詞分配TF-IDF權(quán)重。其中,nid表示第i個視覺單詞在圖像d中出現(xiàn)的頻數(shù),nd表示圖像d的視覺單詞總數(shù),N表示所有圖像總數(shù),Ni表示第i個視覺單詞在所有圖像中出現(xiàn)的頻數(shù)。權(quán)重值被加入到特征索引結(jié)構(gòu)中,將圖像的各個特征點
9、量化到與其距離最近的視覺單詞中,統(tǒng)計各視覺單詞的得分,即特征量化到各視覺單詞的權(quán)重值之和,將各視覺單詞得分組成向量,用來表示該圖像。2.3 基于BoW創(chuàng)建視覺字典樹對于BoW方法,需要使用數(shù)量巨大的視覺單詞,才能保證較高的圖像匹配準(zhǔn)確度,此時查找效率比較低。為了提高查找效率,采用樹結(jié)構(gòu)的節(jié)點來組織不同聚類層次的視覺單詞,葉子節(jié)點存儲圖像特征點,查找匹配特征點的過程為從根節(jié)點往下搜索到葉子節(jié)點。然而,使用視覺字典樹方法同樣會帶來較大的感知歧義問題。為了改進BoW模型局部特征匹配造成較大量化誤差的不足,提出對圖像比較全排列特征空間向量信息的方法。3分塊特征空間向量全排列比較方法3.1 均勻劃分4塊
10、區(qū)域的特征空間信息因視角差異等因素影響,包含相似內(nèi)容的不同圖像,它們的分塊區(qū)域不一定按序一一對應(yīng),這種情況導(dǎo)致基于金字塔空間的圖像匹配方法準(zhǔn)確性不高12。將圖像分成均勻的4塊區(qū)域,從左到右、從上到下分別編號為1,2,3,4。如圖3所示,不同符號表示不同的視覺單詞,(a)為某時刻相機獲取圖像,(b)為移動機器人再次到達(a)所到過地點時相機獲取的圖像,因這兩個不同時刻相機拍攝角度不一致,(a)中2和4區(qū)域分別和(b)中的1和3區(qū)域有較高對應(yīng)度。對于這種情況,將圖像的各區(qū)域兩兩比較,才能得到更真實的匹配結(jié)果。采用均勻劃分4塊區(qū)域的特征空間全排列向量比較方法,既能利用特征空間關(guān)聯(lián)信息彌補BoW匹配方
11、法易造成感知歧義的不足,又能改進金字塔匹配方法導(dǎo)致效率較低和魯棒性不高的問題。在對圖像特征點聚類構(gòu)成視覺單詞后,記錄視覺單詞的位置。統(tǒng)計各區(qū)域中特征量化到各個視覺單詞的得分:Sijk,它表示圖像i的特征量化到第j個區(qū)域的第k個視覺單詞得分。假設(shè)視覺單詞數(shù)目為n,圖像i的每個區(qū)域特征空間向量為,4個區(qū)域的向量組合成種特征空間全排列向量:,其中且。該向量就是查詢圖像的特征空間信息,用于與圖像庫圖像中劃分4個區(qū)域按序排列的特征空間信息比較相似性,確定最優(yōu)閉環(huán)。3.2 計算閉環(huán)閉環(huán)檢測過程中,先判斷前一時刻圖像和當(dāng)前圖像的相似值是否小于設(shè)定閾值,決定是否進一步處理當(dāng)前圖像。如果需要,使用BoW方法初步
12、篩選出與查詢圖像的向量距離小于閾值的候選閉環(huán)圖像。向量間距離值計算如下。假設(shè)圖像庫圖像x的向量表示為Vx,查詢圖像y的向量表示為Vy,歸一化兩幅圖像向量并計算L1-范數(shù)距離的公式為:根據(jù)距離確定圖像相似度高低,距離越小,代表兩張圖像越相似,反之圖像越不相似。然后將查詢圖像的全排列向量分別與候選閉環(huán)圖像特征空間向量進行相似性比較,使用公式(5)的L1-范數(shù)距離公式計算它們向量間的距離。最相似兩張圖像的距離值為BoW方法和特征空間信息方法計算距離的最小值,即,該值對應(yīng)的候選閉環(huán)圖像為選出的最優(yōu)閉環(huán)。4實驗與結(jié)果分析本實驗所用軟硬件配置如下:電腦CPU為i7處理器,主頻是2.6GHz,內(nèi)存16G,系
13、統(tǒng)為Ubuntu 16.04 LTS,采用C+作為實驗編程語言。本文的實驗對象為New College數(shù)據(jù)集和City Centre數(shù)據(jù)集,它們是SLAM閉環(huán)檢測的標(biāo)準(zhǔn)數(shù)據(jù)集,由牛津大學(xué)移動機器人實驗室對室外大型場景采集而來。這兩個數(shù)據(jù)集帶有真實閉環(huán)信息,可用來檢驗實驗測試效果。分別使用ORB方法和SURF方法(對SIFT的改進,能加速特征提取)13,對New College數(shù)據(jù)集不同時刻同一地點構(gòu)成閉環(huán)的兩張圖像0745.jpg和1563.jpg進行特征提取和匹配實驗,用圓圈標(biāo)記檢測到的特征點。調(diào)整兩種方法的特征檢測閾值,設(shè)定ORB方法的閾值為使它們檢測到數(shù)目接近的特征點,然后比較特征檢測效
14、果,如圖4所示。圖5是兩種特征提取方法對上述閉環(huán)圖像對的特征匹配效果,匹配點間用線段相連。選擇New College和City Centre數(shù)據(jù)集的各10對閉環(huán)圖像,采用這兩種特征提取方法進行對比實驗,將誤匹配點初步過濾后,結(jié)果列于表1。通過該實驗可知,雖然ORB方法特征檢測的魯棒性不及SURF方法,但它也能較準(zhǔn)確地提取圖像特征,且用時明顯遠(yuǎn)遠(yuǎn)少于SURF方法,因而更好地滿足SLAM對圖像特征提取準(zhǔn)確性和效率的要求。數(shù)據(jù)集10組閉環(huán)圖像特征提取方法平均特征點數(shù)平均特征提取時間平均特征匹配時間New CollegeORB468個10.462 ms7.197 msSURF220.867 ms14.
15、307 msCity CentreORB396個10.212 ms2.535 msSURF180.518 ms9.340 ms利用基于視覺字典樹結(jié)構(gòu)的BoW方法量化表示圖像后,選出距離小于設(shè)定閾值的候選閉環(huán),因相機平移偏轉(zhuǎn)和噪聲等影響,這些圖像難免會存在視覺混淆現(xiàn)象。單從BoW方法得出的圖像匹配得分大小選出候選閉環(huán),存在較大的局限性,本文采用特征空間信息方法加以改進。分別對New College和City Centre數(shù)據(jù)集的查詢圖像和對應(yīng)候選閉環(huán)圖像,使用BoW方法和劃分4塊區(qū)域特征空間方法計算相似度,統(tǒng)計實驗結(jié)果列于表2。實驗數(shù)據(jù)集算法BoW特征空間信息真實閉環(huán)圖像間平均距離值錯誤閉環(huán)圖像
16、間平均距離值閉環(huán)檢測正確率閉環(huán)檢測計算時間/每張圖片真實閉環(huán)圖像間平均距離值錯誤閉環(huán)圖像間平均距離值閉環(huán)檢測正確率閉環(huán)檢測計算時間/每張圖片New College0.1060.24290.322%36.321ms0.0730.23595.174%36.513msCity Centre0.1580.30283.957%31.650ms0.1120.28987.435%31.832ms表2BoW和特征空間信息方法比較結(jié)果針對New College數(shù)據(jù)集的實驗顯示,劃分4塊特征空間方法明顯比BoW方法計算的真實閉環(huán)圖像間平均距離小,小約31.13%;雖然前者計算的錯誤閉環(huán)圖像間平均距離較小,但只小了
17、約2.89%。這說明前者對相似圖像識別度明顯比后者更高,兩者對非相似圖像識別度基本一致。最終前者的閉環(huán)檢測正確率比后者高約5.0%,時間僅增加約0.65%。City Centre數(shù)據(jù)集圖像整體偏暗,檢測到的特征點較少,導(dǎo)致圖像混淆度較高。在此數(shù)據(jù)集實驗中,劃分4塊特征空間方法和BoW相比,前者計算的真實閉環(huán)圖像間平均距離比后者小約29.11%,錯誤閉環(huán)圖像間平均距離只比后者小了約4.30%。同樣說明前者對相似圖像識別度更高,而兩者對非相似圖像識別度基本相似。前者的閉環(huán)檢測正確率比后者高約3.5%,時間僅增加約0.58%。因而,特征空間信息方法優(yōu)于BoW方法。這是因為特征空間信息方法統(tǒng)計了不同區(qū)域的特征信息,相似圖像間的這些特征信息理應(yīng)比較一致,對視角偏轉(zhuǎn)圖像間的匹配,全排列向量比較具有更高魯棒性,而非相似圖像間不具有這樣的特性。
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025-2030年中國粘型自保護膜行業(yè)市場競爭格局及未來投資趨勢分析報告
- 2025-2030年中國離心風(fēng)機產(chǎn)業(yè)發(fā)展現(xiàn)狀及前景趨勢分析報告
- 2025-2030年中國硅鐵行業(yè)市場發(fā)展?fàn)顩r與十三五規(guī)劃分析報告
- 2025-2030年中國煤炭機械市場前景規(guī)劃及投資潛力分析報告
- 2025-2030年中國汽車安全氣囊市場未來發(fā)展趨勢及前景調(diào)研分析報告
- 2025-2030年中國污水處理產(chǎn)業(yè)深度調(diào)研及投資發(fā)展策略建議報告
- 2025年校園文化墻宣傳欄制作與維護協(xié)議3篇
- 二零二五年度智能廣告印刷制作與物聯(lián)網(wǎng)服務(wù)合同2篇
- 2025年環(huán)保監(jiān)測專用相機采購合同2篇
- 二零二五版班組工人社會保險繳納合同范本3篇
- 手術(shù)室護理實踐指南2023年
- 電力安全工作規(guī)程(變電部分)課件
- 新人教版六年級下冊數(shù)學(xué)全冊課件
- 環(huán)保設(shè)施安全風(fēng)險告知卡
- 卵石地層樁基旋挖鉆施工方案
- 江蘇對口單招英語考綱詞匯總結(jié)
- (完整word版)手卡模板
- GB/T 4091-2001常規(guī)控制圖
- GB/T 13912-2020金屬覆蓋層鋼鐵制件熱浸鍍鋅層技術(shù)要求及試驗方法
- GB 18399-2001棉花加工機械安全要求
- 陜西省延安市各縣區(qū)鄉(xiāng)鎮(zhèn)行政村村莊村名居民村民委員會明細(xì)
評論
0/150
提交評論