步態(tài)識(shí)別國(guó)內(nèi)外研究現(xiàn)狀_第1頁(yè)
步態(tài)識(shí)別國(guó)內(nèi)外研究現(xiàn)狀_第2頁(yè)
步態(tài)識(shí)別國(guó)內(nèi)外研究現(xiàn)狀_第3頁(yè)
步態(tài)識(shí)別國(guó)內(nèi)外研究現(xiàn)狀_第4頁(yè)
步態(tài)識(shí)別國(guó)內(nèi)外研究現(xiàn)狀_第5頁(yè)
已閱讀5頁(yè),還剩1頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

步態(tài)識(shí)別國(guó)內(nèi)外研究現(xiàn)狀步態(tài)識(shí)別技術(shù)指通過分析人體步態(tài)的生物特征來識(shí)別和驗(yàn)證個(gè)體身份的一種生物識(shí)別技術(shù),該技術(shù)可以應(yīng)用于安全監(jiān)控、智能家居、醫(yī)療健康等領(lǐng)域。本篇論文將從國(guó)內(nèi)外兩個(gè)方面介紹步態(tài)識(shí)別技術(shù)的研究現(xiàn)狀,并分析其存在的問題和未來發(fā)展趨勢(shì)。

一、國(guó)內(nèi)步態(tài)識(shí)別研究

我國(guó)步態(tài)識(shí)別研究相對(duì)起步較晚,但近年來隨著科技進(jìn)步和應(yīng)用需求的增加,該領(lǐng)域取得了不少進(jìn)展。目前國(guó)內(nèi)主要的步態(tài)識(shí)別技術(shù)包括基于視頻的步態(tài)識(shí)別技術(shù)和基于慣性測(cè)量單元(IMU)的步態(tài)識(shí)別技術(shù)。

1.基于視頻的步態(tài)識(shí)別技術(shù)

基于視頻的步態(tài)識(shí)別技術(shù)主要通過分析人體在行走過程中的姿態(tài)變化、步幅、步速等特征,從而對(duì)個(gè)體進(jìn)行身份驗(yàn)證。典型的方法包括基于特征提取的方法、基于模式識(shí)別的方法和基于深度學(xué)習(xí)的方法。

在特征提取方面,優(yōu)化類的特征選擇方法是目前應(yīng)用最為廣泛的技術(shù)。例如,Weng等人提出了一種結(jié)合多特征的步態(tài)識(shí)別方法,通過選擇人體的關(guān)鍵幀并應(yīng)用SIFT和HOG特征提取來識(shí)別個(gè)體身份(Weng等,2016)。但是,該方法存在識(shí)別率低和對(duì)光照等環(huán)境因素的敏感性等問題。

基于模式識(shí)別的方法可以分為有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)兩種。有監(jiān)督學(xué)習(xí)方法需要先訓(xùn)練分類器,然后使用測(cè)試數(shù)據(jù)進(jìn)行驗(yàn)證。呂等人提出了一種基于矩形規(guī)范化的卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,能夠識(shí)別不同的步態(tài)(呂等,2018)。無監(jiān)督學(xué)習(xí)方法不需要事先提供標(biāo)簽數(shù)據(jù),能夠自動(dòng)地組織數(shù)據(jù),提取有價(jià)值的結(jié)構(gòu)。吳等人使用了非負(fù)矩陣分解方法來探索步態(tài)數(shù)據(jù)中的隱藏結(jié)構(gòu)(吳等,2017)。

基于深度學(xué)習(xí)的方法目前在步態(tài)識(shí)別領(lǐng)域也取得了不少進(jìn)展。Zhang等人提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)的步態(tài)識(shí)別算法,使用數(shù)據(jù)增強(qiáng)技術(shù)來增加訓(xùn)練數(shù)據(jù)的數(shù)量,并采用多任務(wù)學(xué)習(xí)的方式同時(shí)考慮髖關(guān)節(jié)和膝關(guān)節(jié)的信息,從而提高識(shí)別率(Zhang等,2020)。

2.基于IMU的步態(tài)識(shí)別技術(shù)

IMU是一種集成了加速度計(jì)、陀螺儀和磁力計(jì)等多種傳感器的設(shè)備,可以實(shí)時(shí)測(cè)量人體在空間中的運(yùn)動(dòng)狀態(tài)。基于IMU的步態(tài)識(shí)別技術(shù)主要是通過挖掘IMU傳感器所提供的加速度和角速度數(shù)據(jù),來識(shí)別和驗(yàn)證個(gè)體身份。該技術(shù)與基于視頻的步態(tài)識(shí)別技術(shù)相比,具有時(shí)間分辨率高、適應(yīng)環(huán)境性好、隱私性強(qiáng)等特點(diǎn),但精度相對(duì)較低。

目前,基于IMU的步態(tài)識(shí)別技術(shù)主要應(yīng)用于智能鞋墊、手持設(shè)備等個(gè)人佩戴設(shè)備上。該領(lǐng)域的研究者主要關(guān)注IMU數(shù)據(jù)的預(yù)處理和特征提取方法,以及算法的實(shí)時(shí)性和穩(wěn)定性等問題。張等人提出了一種基于小波變換的步態(tài)識(shí)別方法,通過分析IMU傳感器的數(shù)據(jù)來提取多種步態(tài)特征,以提高識(shí)別準(zhǔn)確率(張等,2017)。焦等人則提出了一種基于最小平方支持向量機(jī)(LS-SVM)的步態(tài)識(shí)別算法,能夠在控制高斯白噪聲的情況下保持高識(shí)別率(焦等,2017)。

二、國(guó)外步態(tài)識(shí)別研究

相較于國(guó)內(nèi),國(guó)外步態(tài)識(shí)別研究領(lǐng)域更為成熟,經(jīng)過多年的發(fā)展,已經(jīng)形成了一批具有代表性的研究機(jī)構(gòu)和學(xué)者,并涌現(xiàn)出多項(xiàng)重要的研究成果。目前,國(guó)外步態(tài)識(shí)別研究主要集中在以下幾個(gè)方向。

1.基于視頻的步態(tài)識(shí)別技術(shù)

與國(guó)內(nèi)步態(tài)識(shí)別技術(shù)的研究方向類似,國(guó)外步態(tài)識(shí)別技術(shù)的研究也主要集中于基于視頻的步態(tài)識(shí)別技術(shù)方向。目前,典型的方法包括形態(tài)分析方法、局部劃分方法、時(shí)空+深度學(xué)習(xí)等方法。

形態(tài)分析方法主要是通過提取人體姿態(tài)、步幅和步速等特征,以減小經(jīng)典的影響因素,來提高識(shí)別水平。松本等人提出了一種基于人體末端點(diǎn)信息的步態(tài)識(shí)別算法,通過對(duì)上下肢末端點(diǎn)的距離、相對(duì)方向以及對(duì)稱回歸來提高步態(tài)識(shí)別準(zhǔn)確度(松本等,2020)。局部劃分方法則是通過對(duì)人體不同部位進(jìn)行劃分,并提取局部特征,來構(gòu)建特征空間,從而提高識(shí)別水平。Kodus等人提出了一種基于C3D網(wǎng)絡(luò)的深度學(xué)習(xí)方法,通過同時(shí)考慮foot-ankle、shin-knee和thigh-hip三個(gè)部位中的空間和時(shí)間信息來識(shí)別步態(tài)(Kodus等,2020)。時(shí)空+深度學(xué)習(xí)方法則是把時(shí)間和空間信息與深度學(xué)習(xí)相結(jié)合,能夠進(jìn)一步提高步態(tài)識(shí)別的精度。Liu等人提出了一種基于時(shí)空三維卷積神經(jīng)網(wǎng)絡(luò)(3D-CNN)的步態(tài)識(shí)別方法,通過融合時(shí)間和空間信息,從而提高識(shí)別率(Liu等,2021)。

2.基于傳感器的步態(tài)識(shí)別技術(shù)

基于傳感器的步態(tài)識(shí)別技術(shù)主要是通過采集人體運(yùn)動(dòng)信息,并提取與步態(tài)相關(guān)的特征進(jìn)行識(shí)別。這種技術(shù)相對(duì)于基于視頻的步態(tài)識(shí)別技術(shù),在逼格低和適應(yīng)環(huán)境范圍窄等方面具有突出優(yōu)勢(shì)。

當(dāng)前,基于傳感器的步態(tài)識(shí)別主要應(yīng)用于智能鞋墊、手持設(shè)備、智能地毯等方面。受限于傳感器種類和個(gè)體特性,該技術(shù)的識(shí)別精度和穩(wěn)定性相對(duì)較低,在日常生活中的應(yīng)用場(chǎng)景較為受限。。

三、存在的問題與未來發(fā)展趨勢(shì)

盡管步態(tài)識(shí)別技術(shù)在應(yīng)用領(lǐng)域有廣泛的應(yīng)用前景,但隨著人工智能技術(shù)的不斷發(fā)展及應(yīng)用場(chǎng)景不斷拓展,步態(tài)識(shí)別技術(shù)仍存在一些問題和挑戰(zhàn)。

1、大數(shù)據(jù)訓(xùn)練不足

隨著科技的不斷進(jìn)步和以人類為中心的設(shè)計(jì)理念的不斷發(fā)展,步態(tài)識(shí)別的應(yīng)用場(chǎng)景將會(huì)越來越廣泛。然而,由于步態(tài)識(shí)別所需的數(shù)據(jù)是動(dòng)作序列,因此數(shù)據(jù)訓(xùn)練集相比其他生物識(shí)別技術(shù)較小,難以快速建立相關(guān)算法進(jìn)行驗(yàn)證。

2、識(shí)別精度和穩(wěn)定性問題

步態(tài)受很多因素影響,如個(gè)體身體特征、穿著物及地形地貌等,而近似性的步態(tài)很難識(shí)別。此外,基于視頻的步態(tài)識(shí)別需要比對(duì)離線采集到的圖像/視頻,對(duì)人體的追蹤效果和穩(wěn)定性要求較高。

3、數(shù)據(jù)隱私問題

作為一種新型的生物識(shí)別技術(shù),步態(tài)識(shí)別同樣存在數(shù)據(jù)隱私問題。另外還有成本問題和應(yīng)用場(chǎng)景限制,比如基于視頻的步態(tài)識(shí)別需要相對(duì)較高的設(shè)備成本、位移和場(chǎng)景成本以及需要更多的人機(jī)互動(dòng)媒介。

為了解決上述問題和彌補(bǔ)步態(tài)識(shí)別研究還有的不足,未來步態(tài)識(shí)別技術(shù)需要加強(qiáng)多模態(tài)數(shù)據(jù)融合,優(yōu)化訓(xùn)練集建立;提高算法的自適應(yīng)和魯棒性,增加步態(tài)消歧模塊和噪聲過濾模塊;加強(qiáng)安全性和隱私性,建立更為完善的標(biāo)準(zhǔn)化認(rèn)證體系和區(qū)塊鏈技術(shù)體系,并為步態(tài)識(shí)別技術(shù)提供透明監(jiān)管??傊綉B(tài)識(shí)別技術(shù)在智能安全、健康服務(wù)等領(lǐng)域的重要性和發(fā)展前景不容小覷,急需在技術(shù)、標(biāo)準(zhǔn)、政策等方面加強(qiáng)全面推進(jìn)。此外,隨著物聯(lián)網(wǎng)技術(shù)的不斷進(jìn)步和智能化應(yīng)用的普及,步態(tài)識(shí)別技術(shù)也將在更廣泛的場(chǎng)景下得到應(yīng)用,如智能家居、自動(dòng)駕駛、醫(yī)療康復(fù)等領(lǐng)域。在智能家居方面,步態(tài)識(shí)別技術(shù)可以應(yīng)用于行走追蹤、自動(dòng)調(diào)節(jié)照明和溫度等功能,為居家生活提供更加便利和舒適的體驗(yàn)。在自動(dòng)駕駛方面,步態(tài)識(shí)別技術(shù)可以用于駕駛員識(shí)別和安全監(jiān)控,提高自動(dòng)駕駛的準(zhǔn)確性和安全性。在醫(yī)療康復(fù)方面,步態(tài)識(shí)別技術(shù)可以用于康復(fù)跟蹤和評(píng)估,提高康復(fù)效果和效率。

未來,隨著新型傳感器和高效算法的不斷涌現(xiàn),步態(tài)識(shí)別技術(shù)將得到更廣泛的應(yīng)用和推廣。例如,基于雷達(dá)或紅外線等新型傳感器的步態(tài)識(shí)別技術(shù)可以克服基于攝像頭的步態(tài)識(shí)別技術(shù)對(duì)光線和角度的敏感性;基于深度學(xué)習(xí)和人工智能技術(shù)的步態(tài)識(shí)別算

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論