基于光電容積脈博波RR間期的睡眠靜息狀態(tài)識別_第1頁
基于光電容積脈博波RR間期的睡眠靜息狀態(tài)識別_第2頁
基于光電容積脈博波RR間期的睡眠靜息狀態(tài)識別_第3頁
基于光電容積脈博波RR間期的睡眠靜息狀態(tài)識別_第4頁
基于光電容積脈博波RR間期的睡眠靜息狀態(tài)識別_第5頁
全文預覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

1、基于光電容積脈博波RR間期的睡眠靜息狀態(tài)識別摘要:個體差異性對生理信號狀態(tài)識別具有較大的影響!在實際應用中,解決個體差異性所遇到的問題是新個體數(shù)據(jù)難以獲得與網(wǎng)絡模型 適應新個體需要大量的新個體數(shù)據(jù)之間的矛盾!本文從此處入手運用遷移學習的思想將MK-MMD加入全卷積網(wǎng)絡中得到深度適配網(wǎng)絡,在 使用RR間期識別睡眠靜息狀態(tài)的應用中讓網(wǎng)絡模型可以通過少量無標簽的新個體數(shù)據(jù)使網(wǎng)絡模型達到自適應的效果!深度適配網(wǎng)絡較全 卷積網(wǎng)絡在新個體上的準確率增加了 12. 27%的準確率,且準確率均提升至80%以上!在解決個體差異性的問題上,深度適配網(wǎng)絡優(yōu)于傳統(tǒng)網(wǎng) 絡模型!且在實際應用中提供了一種不用大量采集新個體

2、的數(shù)據(jù)就能解決個體差異性的新思路!關鍵詞:RR間期;遷移學習;狀態(tài)識別;個體差異性;卷積網(wǎng)絡;深度適配網(wǎng)絡Sleep Resting State Recognition Based on RR Interval of PPGAbstract: Individual difference has made great impact in the recognition of physiological signal states. In practical applications, the problem encountered in resolving individual differen

3、ce is the contradiction between the difficulty in obtaining new 一 individual data and the need for the network model to adapt to new 一 individual requiring a large amount of new 一 individual data. This article start with the idea of transfer learning and added MK - MMD to the full convolutional netw

4、ork to obtained a deep adaptive network. In the application of using the RR interval to identify the resting state of sleep,the network model could pass a small number of unlabeled new 一 individual data made the network model adaptive. Compared with the full convolutional network,the accuracy of the

5、 deep adaptation network on the new - individual increased by 12. 27% , and the accuracy was increased to more than 80%. In solving the problem of individual difference, deep adaptation networks are superior to traditional network models. And in practice ,it provides a new idea that can resolve indi

6、vidual difference without collecting a large number of new 一 individual data.Keywords: RR interval; transfer learning; state recognition; individual difference; convolutional network; deep adaptive network0引言隨著可穿戴設備的普及,光電容積脈搏波描記 法(Photo Plethysmo Graphy,PPG)使脈搏波信號更 加易于獲得。RR間期是PPG信號兩個波峰的時間 差,可由PPG信號獲

7、得。RR間期不僅能反應心臟 節(jié)律的變化還能反應人體機能狀態(tài)在生理信號領域,數(shù)據(jù)是由一群具有各種不同 特征的個體產(chǎn)生的。例如在運動識別領域中,不同 的個體可能以不同的步態(tài)模式行走或者跑步。同 樣,在睡眠分期研究中,不同的人在相同的睡眠階段 可能表現(xiàn)出不同的模式。因此,將遷移學習技術(shù)應 用在生理信號領域方面是必要的。許多學者在生理信號狀態(tài)識別領域應用神經(jīng)網(wǎng) 絡模型時并未考慮到個體差異會較大程度上影響識 別結(jié)果。有兩種方式能克服個體差異對神經(jīng)網(wǎng)絡模 型效果的影響:(1)盡可能的收集更多個體的數(shù)據(jù), 當數(shù)據(jù)集所包含的個體越多,那么所得到的模型泛 化能力越強。但是生理信號領域與圖像領域不同的 是,圖像領

8、域有ImageNet等包含門類廣、數(shù)據(jù)量大 的公開數(shù)據(jù)集,而生理信號領域的數(shù)據(jù)集往往包含 門類窄、數(shù)據(jù)量小,獲取生理信號需要考慮到個人的 隱私且獲取成本比圖像大得多。因此,擴大數(shù)據(jù)集 在生理信號領域并不可行。(2)通過一個小數(shù)據(jù)集 訓練神經(jīng)網(wǎng)絡,得到一個習到足以辨別不同模式的 模型且該模型包含了該數(shù)據(jù)集獨有的特征。然后獲 取一些新個體的少量數(shù)據(jù),使用遷移學習的方法通 過新個體的數(shù)據(jù)讓模型學習得到新個體獨有的特 征,從而使得模型可以盡可能的不受新個體差異性 的影響。國內(nèi)外近年來關于遷移學習在生理信號領域的 應用越來越多。林程在腦機接口信號分類領域提出 一種基于共同空間模式的遷移學習方法。該方法以

9、 共同空間模式特征提取方法為基礎,計算了目標對 象訓練集和其余對象輔助訓練集之間的相似度,根 據(jù)兩者之間的相似度重構(gòu)目標對象訓練集的特征數(shù) 據(jù),再建立新的分類模型,從而提高分類器的準確 度。實現(xiàn)了目標在少量訓練樣本情況下訓練可靠的 分類模型,并取得了較好的分類準確率。謝平等 在疲勞駕駛檢測領域,基于時頻分析方法和復雜度 分析方法提取各生理信號(腦電信號、心電信號和 肌電信號)特征并進行融合。然后,基于特征空間 內(nèi)大間隔映射的遷移學習方法實現(xiàn)對單一源域到目 標域疲勞狀態(tài)的初步判別。提高了不同受試者駕駛 疲勞檢測的魯棒性。Priyank Jaini等在基于隱馬爾 可夫模型和高斯混合模型將遷移學習運

10、用到睡眠分 期領域,并實現(xiàn)實時預測的效果。大部分學者試 圖得到一個盡可能適合更多人的模型,而本文從特 殊性出發(fā)不求得到一個“大而全”的模型,而是得到 一個“小而準”的模型。在實際應用中,解決個體差異性所遇到的問題 是新個體數(shù)據(jù)難以獲得與網(wǎng)絡模型適應新個體需要 大量的新個體數(shù)據(jù)之間的矛盾,本文將從該問題入 手,試圖使用少量新個體數(shù)據(jù)便能解決個體差異性。 以睡眠和靜息者兩種對比較為顯著的狀態(tài)為例,基 于全卷積神經(jīng)模型和遷移學習技術(shù)使用RR間期來 判斷靜息睡眠狀態(tài),并使得該模型能夠更好的的適 配具有特異性的個體。1研究方法深度適配網(wǎng)絡(Deep Adaptation Networks,DAN) 很好

11、的將神經(jīng)網(wǎng)絡與深度學習結(jié)合起來。本文選 擇全卷積網(wǎng)絡(Fully Convolutional Networks,F(xiàn)CN) 作為基本的神經(jīng)網(wǎng)絡結(jié)構(gòu),因其在圖像領域表現(xiàn)出 了良好的識別性能。而在時間序列分類領域,F(xiàn)CN 也被作為特征提取器。在無監(jiān)督領域自適應中,源域可表達為:= (駕,) di式中:(是具有標簽的樣本。目標域可表達為:# = 時=i式中:(是無標簽的樣本。概率分布P和,分別用來描述源域和目標域。 目的是重建一個可以習得連接源域和目標域的可遷 移特征,勾結(jié)一個分類器=!( %),該分類器可通過 源域來最小化目標函數(shù)。1-1多核最大均值差異再生核希爾伯特空間(Reproducing K

12、ernel Hilbert Space,RKHS)表示為-。概率分布p的平均映 射,用(p)來表示,因此對于有E,pf( %)= 。+和q之間的多核最大均值差 異(Multiple - kernel Maximum Mean Discrepancy,MK -MMD) ,0( p,q)等于p和q平均映射之間的 RKHS距離,其中0(p,q)被定義為:0( p,q) = II t$( %) - % II (#)使0( p,q) =0 ,那么有p =q。特征映射$與內(nèi) 核的關系為: TOC o 1-5 h z (%,%) =$( %) ,$( %)( 2)且內(nèi)核被定義為1個正半定(Positive

13、semi - definite, PSD)內(nèi)核 ku 的凸組合:% = =:&%0,&( 3)= 1= 11-2深度適配網(wǎng)絡每一個基本網(wǎng)絡結(jié)構(gòu)單元可以學習的非線性映射可表示為:3 = ReLU( BN(廣(4 h_# + 5)(4)式中:卷積運算;5和4網(wǎng)絡第層的偏置和權(quán)重;h隱藏層的第層。/表示激活函數(shù),數(shù)學表達為:/( %) *%/$:#K( 5)用! = ( 4,5 = #來表示FCN的所有參數(shù),那 么FCN的代價函數(shù)為:mi $:(!( %),)! (a1 = i式中:!( %9) FCN把樣本;分配給標簽 的條件概率;/交叉熵損失函數(shù)(cross - entropyloss func

14、tion) 本文的目標是讓FCN能夠適應個體差異性,所 以把基于MK - MMD的多層適配正則化式(2)加入 FCN的代價函數(shù)(6)中:# (2吵一$#:(!( %),-) +( #,#)(7)式中:(懲罰參數(shù)(。);81 = 82 =5。1.3網(wǎng)絡結(jié)構(gòu)有標簽數(shù)據(jù)輸戒一(源域)-全局池化層線性層圖1網(wǎng)絡結(jié)構(gòu)有標簽數(shù)據(jù)輸戒一(源域)-全局池化層線性層圖1是網(wǎng)絡結(jié)構(gòu)示意圖,陰影部分是FCN,F(xiàn)CN 加上MK - MMD和無標簽數(shù)據(jù)(白色部分)是DAN。 邏輯回歸層(softmax layer)被用于分類?;揪W(wǎng)絡 結(jié)構(gòu)單元由卷積層、批量歸一化層(Batch Normalization ,BN)和線

15、性整流函數(shù)層(Rectified Linear Unit, ReLU)組成。BN可以加快卷積神經(jīng)網(wǎng)絡的訓練過 程以及提高其性能,ReLU具有更有效率的梯度下降以 及反向傳播且可以避免了梯度爆炸和梯度消失問題。網(wǎng)絡參數(shù)設定:輸入維數(shù)為256,學習率為0. 01,動 量為0. 9,梯度下降方法使用隨機梯度下降(Stochastic Gradient Descent,SGD),迭代次數(shù)為100,3個基本網(wǎng)絡 結(jié)構(gòu)單元的輸入維數(shù)為 128,256,128 ,3個1維卷積 核的維數(shù)和步長分別為 7,5,3和1,1,1 2實驗設計與數(shù)據(jù)來源2.1數(shù)據(jù)來源本文使用上海貝瑞腕式血氧儀收集了 7個青年 志愿者的

16、睡眠和靜息狀態(tài)下的RR間期數(shù)據(jù)。靜息 狀態(tài)RR間期數(shù)據(jù)采集方式:志愿者采用靜坐的方 式,被測的手放在桌子上保持不動,單次測量時間為 2h,每個志愿者共測三次。睡眠狀態(tài)RR間期數(shù)據(jù) 采集方式:志愿者戴上血氧儀睡眠,睡眠時長大致為 (78) h,每個志愿者共測試3晚。截取睡眠時測 得的數(shù)據(jù)的最中間2h,作為本文使用的睡眠狀態(tài)數(shù) 據(jù)。這樣,靜息狀態(tài)下和睡眠狀態(tài)下的RR間期數(shù) 據(jù)的長度一樣,是平衡數(shù)據(jù)集。最終所得到的準確 率不會因為某一類的數(shù)據(jù)量多而產(chǎn)生偏差,因此僅 使用準確率這一指標便能評價模型的好壞。2.2實驗設計實驗操作如圖2所示,實驗目的有兩點:(1)通 過對照組實驗來說明源域與目標域存在較大

17、個體差 異性,即適用于源域的模型未必適用于目標域;(2) 通過對照組和實驗組的對比說明DAN在克服個體 差異性方面的有效。用256個數(shù)據(jù)點長度且步長為 4個數(shù)據(jù)點的窗口將采集得到RR間期切分為標準 的子時間序列,以作為FCN和DAN的輸入。將這 些子時間序列用# = ( %,) 2=1表示,其中為 RR間期;為的標簽(睡眠或者靜息)。首先,將 從所有數(shù)據(jù)中隨機選出6個志愿者的RR間期(源 域),用# = () 2=1表示。將剩余一個志愿者的RR間期(目標域)用# = %; ;= 1表示。其次, #;表示隨機從選取80%的有標簽數(shù)據(jù),:用作 源域的訓練集。以表示剩余20%的有標簽數(shù) 據(jù),用來作為

18、源域的測試集;用表示隨機從#選 取15%的無標簽數(shù)據(jù),作為目標域的訓練集;表 示#剩余75%的有標簽數(shù)據(jù),作為目標域的測試 集。第三步,對照組:用訓練集#訓練FCN(迭代 100次)得到模型Mfcn,并分別通過測試集玖和# 得到準確率;實驗組:用訓練集#;和#訓練DAN(迭代1。次)得到模型Mdan,并分別通過測試集 玖和#;得到準確率。最后,重復第一步至第三步, 且保證每次實驗時作為目標域的志愿者不同,記下實 驗編號,實驗編號每次增加1,共有7次對照實驗。圖2實驗流程圖3識別結(jié)果圖3是實驗結(jié)果的箱型圖,橫坐標是實驗編號, 縱坐標是準確率。從表1、圖3(a)和圖3( T)的對 比,可以得知,F(xiàn)

19、CN訓練得到的模型在源域上的準 確率均值都接近100%,并且標準差比較小。但是 在目標域的準確率均值數(shù)值上都低于源域,并且標 準差較大。其中實驗編號1和實驗編號5的準確率 均值分別為61. 21%和62. 88%,接近于隨機猜測, 說明在實驗編號1和實驗編號5中,作為目標域的 志愿者與其他志愿者相比具有較大的個體差異性。 而在實驗編號2中,源域和目標域的準確率均值分 別為98. 19%和95. 59%相差不大,說明作為目標域 的志愿者與其他志愿者無較大差異。因為在卷積神 經(jīng)網(wǎng)絡中,用的是源域的有標簽數(shù)據(jù)去訓練網(wǎng)絡,得 到的模型會在源域上會過擬合。而在有個體差異的實驗編號1234567FCN源域

20、均值97. 76%98. 19%97. 86%97. 70%97. 49%95. 93%96. 49%標準差0. 03890. 03390. 04050. 03300. 03880. 05480. 0774目標域均值61.21%95. 59%79. 54%79. 08%62. 88%83. 64%71.73%標準差0. 05410. 03550. 06490. 02400. 06340. 06090. 0805DAN源域均值76. 11%97. 08%93. 78%91.71%95. 27%94. 62%89.41%標準差0. 04420. 02770. 04170. 06800. 03040

21、. 02660. 0526目標域?qū)嶒灳幪?234567FCN源域均值97. 76%98. 19%97. 86%97. 70%97. 49%95. 93%96. 49%標準差0. 03890. 03390. 04050. 03300. 03880. 05480. 0774目標域均值61.21%95. 59%79. 54%79. 08%62. 88%83. 64%71.73%標準差0. 05410. 03550. 06490. 02400. 06340. 06090. 0805DAN源域均值76. 11%97. 08%93. 78%91.71%95. 27%94. 62%89.41%標準差0. 0

22、4420. 02770. 04170. 06800. 03040. 02660. 0526目標域均值89. 93%98. 16%88. 50%80. 58%79. 73%94. 31%88. 33%標準差0. 04450. 02460. 03710. 01780. 06790. 03590. 0562表1準確率的均值和標準差圖4是FCN和DAN在訓練時,準確率隨著迭可知FCN在源域上的從第40次迭代開始,準確率代次數(shù)的增加而變化的趨勢。從圖4( a)和圖4( T)便都逐漸增加直至收斂于100%,而在目標域上的圖3實驗結(jié)果箱型圖準確率并沒有隨著迭代次數(shù)的增加而提高,而是各 自“震蕩”在某一個值上。從圖4( c)和圖4( d)可知

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論