文獻(xiàn)翻譯-多傳感器信息融合和一體化方法,應(yīng)用,和未來(lái)的研究方向_第1頁(yè)
文獻(xiàn)翻譯-多傳感器信息融合和一體化方法,應(yīng)用,和未來(lái)的研究方向_第2頁(yè)
文獻(xiàn)翻譯-多傳感器信息融合和一體化方法,應(yīng)用,和未來(lái)的研究方向_第3頁(yè)
文獻(xiàn)翻譯-多傳感器信息融合和一體化方法,應(yīng)用,和未來(lái)的研究方向_第4頁(yè)
文獻(xiàn)翻譯-多傳感器信息融合和一體化方法,應(yīng)用,和未來(lái)的研究方向_第5頁(yè)
已閱讀5頁(yè),還剩12頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

#1212折射、沖動(dòng)、規(guī)則排序,近因,特異性,和隨機(jī)選擇。一個(gè)神經(jīng)網(wǎng)絡(luò)由層處理單元可以以各種方式相互連接。神經(jīng)元可以培訓(xùn),代表傳感器的信息,并通過(guò)聯(lián)營(yíng)公司還記得,復(fù)雜的組合可以被激活的神經(jīng)元在不同的感官刺激。例如,模擬退火是許多不同的技術(shù),可以使用找到一個(gè)全局最優(yōu)狀態(tài)在一個(gè)網(wǎng)絡(luò)基于當(dāng)?shù)孛總€(gè)在網(wǎng)絡(luò)中的神經(jīng)元的激活狀態(tài)。模糊邏輯,多值邏輯的類型,允許的不確定性在直接表示在多傳感器信息融合通過(guò)允許每個(gè)命題的推理過(guò)程,以及實(shí)際蘊(yùn)涵算子,被分配一個(gè)實(shí)數(shù)從0.0到1.0,以表明其一定的道理。一致的邏輯推理會(huì)發(fā)生如果融合過(guò)程的不確定性在一些系統(tǒng)中建模。如圖5,多傳感器融合可以被執(zhí)行不同的水平:信號(hào)電平、像素級(jí)、特征的水平和符號(hào)級(jí)別。適當(dāng)?shù)娜诤纤惴ㄒ虼藨?yīng)用于融合的傳感數(shù)據(jù)來(lái)自多個(gè)傳感器在不同的級(jí)別。一般來(lái)說(shuō),估算方法被成功用于信號(hào)電平傳感器融合。分類方法可以用來(lái)提取特征和數(shù)據(jù)融合像素和功能水平。推理方法對(duì)于符號(hào)級(jí)傳感器是有效的,導(dǎo)致他們證據(jù)推理的能力。對(duì)于人工智能的方法,他們可以被視為高級(jí)版本的估算,分類和推理方法。人工智能方法可以自適應(yīng)補(bǔ)償,而不是模型相關(guān)的,和有足夠的自由度來(lái)適應(yīng)復(fù)雜的非線性關(guān)系,與必要的預(yù)防措施來(lái)適當(dāng)推廣。因此,人工智能方法能有效在不同的層次進(jìn)行傳感器融合。示例:實(shí)現(xiàn)融合移動(dòng)機(jī)器人目標(biāo)跟蹤算法如圖8,實(shí)驗(yàn)裝置由一個(gè)自主移動(dòng)機(jī)器人和一個(gè)多傳感器基于電輪椅。移動(dòng)機(jī)器人“ChungCheng-1”(Nomad200平臺(tái))是三輪的移動(dòng)平臺(tái),配備一個(gè)垂直滑動(dòng)操縱臂和其他感官的模塊。實(shí)驗(yàn)的目標(biāo)是基于多傳感器的名為“Luoson-3”的在我們實(shí)驗(yàn)室研發(fā)的電輪椅。圖9展示了實(shí)現(xiàn)結(jié)構(gòu)的自治目標(biāo)跟蹤系統(tǒng)。它包含兩個(gè)主要代理商地方?jīng)Q定的,一個(gè)是目標(biāo)跟蹤劑,其輸入的目標(biāo)位置測(cè)量從超聲波視覺傳感器,另一個(gè)是防撞劑其輸入端是從周圍的范圍測(cè)量16個(gè)超聲波傳感器。目標(biāo)跟蹤劑所示的陰影區(qū)域,其中v是連續(xù)測(cè)量從超聲波范圍內(nèi)的機(jī)器人x和目標(biāo)之間的距離傳感器。類似地,v是從距離測(cè)量視覺檢測(cè),和s是機(jī)器人xx驅(qū)動(dòng)速度。當(dāng)?shù)貨Q定相對(duì)于目標(biāo)位置是由融合的兩個(gè)感知數(shù)據(jù)、預(yù)測(cè)的誤差距離和期望距離為40,并且為變化誤差。輸出是當(dāng)?shù)貨Q定D和C,D相對(duì)信心,CLLLL從融合計(jì)算的兩個(gè)預(yù)測(cè)信心水平和差異的兩個(gè)預(yù)測(cè)。當(dāng)?shù)貨Q定代表目標(biāo)的相對(duì)速度和跟蹤。

u:UltrasonicSmeary£>ataPredictedu%;ofu"j:RabotVelocityv:Sfejiso尸L>afaPredictedvcK:dbT^fidsncaofv*FinalOecisionu:UltrasonicSmeary£>ataPredictedu%;ofu"j:RabotVelocityv:Sfejiso尸L>afaPredictedvcK:dbT^fidsncaofv*FinalOecision

OutpLit<^Defuzzlf\cation^>LocalDecision(DltC.)/LinguisticInference

DecisionFusionLocalDecision(De5AQentTargetTrackingLinguisticInferenceLinguisticInferenceLinguisticInferenceAQ&ntCo/fcjon

Avoidar>c&uzzificationU*jLcPrcriirtinnSmIF1evaluationuzzificatiorvPredictionSel匸

evaluationAdaptive怕odeli門qS1,S31?…3S■DeadReckoningUltrasonicSensors圖9實(shí)現(xiàn)的目標(biāo)跟蹤系統(tǒng)的整合視覺檢測(cè)和超聲波傳感數(shù)據(jù)代理的避碰集超聲波范圍傳

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論