版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
目標(biāo)檢測(cè)要求和識(shí)別辦法目標(biāo)檢測(cè)要求和識(shí)別辦法目標(biāo)檢測(cè)和識(shí)別怎樣檢測(cè)和識(shí)別圖像中物體,如汽車(chē)、牛等?目標(biāo)檢測(cè)和識(shí)別怎樣檢測(cè)和識(shí)別圖像中物體,如汽車(chē)、牛等?目標(biāo)識(shí)別的應(yīng)用目標(biāo)識(shí)別的應(yīng)用難點(diǎn)之一:如何魯棒識(shí)別?難點(diǎn)之一:如何魯棒識(shí)別?類(lèi)內(nèi)差異(intra-classvariability)類(lèi)內(nèi)差異(intra-classvariability)類(lèi)間相似性(inter-classsimilarity)類(lèi)間相似性(inter-classsimilarity)難點(diǎn)之二:計(jì)算量大一幅圖像中像素個(gè)數(shù)多,目前每秒約產(chǎn)生300G像素的圖像/視頻數(shù)據(jù)。 -Google圖片搜索中已有幾十億幅圖像 -全球數(shù)字照相機(jī)一年產(chǎn)生180億張以上的圖片(2004年) -全球一年銷(xiāo)售約3億部照相手機(jī)(2005)人的物體識(shí)別能力是強(qiáng)大的 -靈長(zhǎng)類(lèi)動(dòng)物約使用大腦皮層的一半來(lái)處理視覺(jué)信息[FellemanandvanEssen1991] -可以識(shí)別3,000-30,000種物體 -物體姿態(tài)可允許30度以上的自由度。難點(diǎn)之二:計(jì)算量大一幅圖像中像素個(gè)數(shù)多,目前每秒約產(chǎn)生300難點(diǎn)之三:如何在小樣本條件下學(xué)習(xí)難點(diǎn)之三:如何在小樣本條件下學(xué)習(xí)物體識(shí)別方法檢測(cè)(detection)vs.不檢測(cè)表示(representation) -顏色、紋理、邊緣、梯度、局部特征、深度、運(yùn)動(dòng)等等。分類(lèi)(classificationorcategorization) -K近鄰(KNN) -神經(jīng)網(wǎng)絡(luò)(NN) -支持向量機(jī)(SVM) -Boosting(Adaboost等) -隱馬爾科夫模型(HMM) -其他生成學(xué)習(xí)(Generativelearning)vs.判別學(xué)習(xí)(discriminativelearning)物體識(shí)別方法檢測(cè)(detection)vs.不檢測(cè)生成學(xué)習(xí)生成學(xué)習(xí)vs.判別學(xué)習(xí)兩種分類(lèi)器學(xué)習(xí)模式生成學(xué)習(xí)
---目標(biāo)是學(xué)習(xí)到符合訓(xùn)練數(shù)據(jù)的類(lèi)別模型 ---如EM算法(MaximumLikelihood)判別學(xué)習(xí)在訓(xùn)練階段即考慮類(lèi)別之間的判別信息包括SupportVectorMachines(SVMs),Boosting,MinimumClassificationError(MCE),MaximumMutualInformation(MMI),LagerMargin(LM),andetc.判別學(xué)習(xí)算法比生成學(xué)習(xí)算法表現(xiàn)出更好的分類(lèi)性能。生成學(xué)習(xí)vs.判別學(xué)習(xí)兩種分類(lèi)器學(xué)習(xí)模式判別學(xué)習(xí)方法判別學(xué)習(xí)方法第二節(jié)人臉檢測(cè)與識(shí)別第二節(jié)人臉檢測(cè)與識(shí)別131.物體檢測(cè)Car/non-carClassifierYes,car.No,notacar.基于二分類(lèi)器131.物體檢測(cè)Car/non-carClassifie14物體檢測(cè)Car/non-carClassifier在復(fù)雜背景下,通過(guò)滑動(dòng)窗口(slidingwindows)搜索感興趣的物體。14物體檢測(cè)Car/non-carClassifier在復(fù)物體檢測(cè)Step1.獲取訓(xùn)練數(shù)據(jù)Step2.提取特征Step3.訓(xùn)練分類(lèi)器Step4.利用分類(lèi)器進(jìn)行檢測(cè)物體檢測(cè)Step1.獲取訓(xùn)練數(shù)據(jù)人臉檢測(cè)(Facedetection)Viola-Jones人臉檢測(cè)算法(基于AdaBoost)人臉檢測(cè)(Facedetection)Viola-JoneViola-Jones人臉檢測(cè)算法(2004)Viola-Jones人臉檢測(cè)算法(2004)濾波器設(shè)計(jì)濾波器設(shè)計(jì)AdaboostAdaboost是一種迭代算法,其核心思想是針對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的分類(lèi)器(弱分類(lèi)器),然后把這些弱分類(lèi)器集合起來(lái),構(gòu)成一個(gè)更強(qiáng)的最終分類(lèi)器(強(qiáng)分類(lèi)器)。其算法本身是通過(guò)改變數(shù)據(jù)分布來(lái)實(shí)現(xiàn)的,它根據(jù)每次訓(xùn)練集之中每個(gè)樣本的分類(lèi)是否正確,以及上次的總體分類(lèi)的準(zhǔn)確率,來(lái)確定每個(gè)樣本的權(quán)值。將修改過(guò)權(quán)值的新數(shù)據(jù)集送給下層分類(lèi)器進(jìn)行訓(xùn)練,最后將每次訓(xùn)練得到的分類(lèi)器最后融合起來(lái),作為最后的決策分類(lèi)器。使用adaboost分類(lèi)器可以排除一些不必要的訓(xùn)練數(shù)據(jù)特徵,并將關(guān)鍵放在關(guān)鍵的訓(xùn)練數(shù)據(jù)上面。
AdaboostAdaboost是一種迭代算法,其核心思想是BoostingExampleBoostingExampleBoostingExampleBoostingExampleBoostingExampleBoostingExampleBoostingExampleBoostingExampleBoostingExampleBoostingExampleBoostingExampleBoostingExampleAdaboost學(xué)習(xí)目標(biāo):選擇能夠最有效地區(qū)分人臉與非人臉的矩形特征及其閾值A(chǔ)daboost學(xué)習(xí)目標(biāo):選擇能夠最有效地區(qū)分人臉與非人臉的Adaboost組合弱分類(lèi)器(weaklearners),得到更為精確的集成分類(lèi)器(ensembleclassifier)。弱分類(lèi)器:性能僅比隨機(jī)分類(lèi)稍好根據(jù)矩形特征定義弱分類(lèi)器:Adaboost組合弱分類(lèi)器(weaklearners),Adaboost算法步驟初始給每個(gè)訓(xùn)練樣本以同等權(quán)重循環(huán)執(zhí)行以下步驟:根據(jù)當(dāng)前加權(quán)訓(xùn)練集,選擇最佳弱分類(lèi)器提升被當(dāng)前弱分類(lèi)器錯(cuò)分的訓(xùn)練樣本的權(quán)重按照各弱分類(lèi)器分類(lèi)精度對(duì)其加權(quán),然后將各個(gè)弱分類(lèi)器形成線(xiàn)性組合,得到最終分類(lèi)器。Adaboost算法步驟初始給每個(gè)訓(xùn)練樣本以同等權(quán)重Viola-Jones算法中的AdaBoost每一次boosting迭代如下:評(píng)價(jià)每一個(gè)樣本上的每一種矩形特征為每一種矩形特征選擇最佳分類(lèi)閾值選擇最優(yōu)的矩形特征及其閾值組合改變樣本權(quán)重計(jì)算復(fù)雜度:O(MNT)
M:特征數(shù),N:樣本數(shù),T:閾值數(shù)Viola-Jones算法中的AdaBoost每一次boos目標(biāo)檢測(cè)要求和識(shí)別辦法課件級(jí)聯(lián)分類(lèi)器(CascadingClassifiers)級(jí)聯(lián)分類(lèi)器(CascadingClassifiers)訓(xùn)練級(jí)聯(lián)分類(lèi)器訓(xùn)練級(jí)聯(lián)分類(lèi)器Viola-Jones檢測(cè)算法-總體流程用5K正樣本,350M反樣本學(xué)習(xí)得到38層(共使用6060個(gè)特征)級(jí)聯(lián)分類(lèi)獲得實(shí)時(shí)性Viola-Jones檢測(cè)算法-總體流程用5K正樣本,350Viola-Jones人臉檢測(cè)結(jié)果Viola-Jones人臉檢測(cè)結(jié)果Viola-Jones人臉檢測(cè)結(jié)果Viola-Jones人臉檢測(cè)結(jié)果Viola-Jones人臉檢測(cè)結(jié)果Viola-Jones人臉檢測(cè)結(jié)果2.人臉識(shí)別(facerecogntion)Zhaoetal.,FaceRecogniton:aliteraturesurvey.ACMComputingsurvey,20032.人臉識(shí)別(facerecogntion)ZhaoeFaceRecognition:2-Dand3-DFaceRecognition:2-Dand3-D圖像=像素的集合將由n個(gè)像素構(gòu)成的圖像視為n維空間中的點(diǎn)圖像=像素的集合將由n個(gè)像素構(gòu)成的圖像視為n維空間中的點(diǎn)最近鄰分類(lèi)器最近鄰分類(lèi)器Eigenfaces使用主成分分析技術(shù)(PrincipleComponentAnalysis,PCA)減少維數(shù)Eigenfaces使用主成分分析技術(shù)(Principle主成分分析(PCA,K-L變換)降低特征向量的維數(shù)獲得最主要特征分量,減少相關(guān)性;避免維數(shù)災(zāi)難主成分分析(PCA,K-L變換)降低特征向量的維數(shù)主成分分析(PCA,K-L變換)主成分分析(PCA,K-L變換)主成分分析(PCA,K-L變換)主成分分析(PCA,K-L變換)Eigenfaces學(xué)習(xí)1.計(jì)算訓(xùn)練圖像的均值和協(xié)方差矩陣.2.計(jì)算協(xié)方差矩陣的特征值,取前k個(gè)最大特征值對(duì)應(yīng)的特征矢量.3.將圖像投影到k-維特征空間(Eigenspace)。識(shí)別1.將測(cè)試圖像投影到Eigenspace.2.在特征圖像上執(zhí)行分類(lèi).Eigenfaces學(xué)習(xí)Eigenfaces:訓(xùn)練圖像Eigenfaces:訓(xùn)練圖像EigenfacesEigenfacesPCA方法的不足可能損失重要的細(xì)節(jié)信息方差最小的方向也可能是重要的沒(méi)有考慮判別任務(wù)希望得到最具判別能力的特征但判別能力最佳并不等同于方差最大PCA方法的不足可能損失重要的細(xì)節(jié)信息Fisherfaces:類(lèi)特定的線(xiàn)性投影Fisherfaces:類(lèi)特定的線(xiàn)性投影PCA&Fisher的線(xiàn)性判別函數(shù)PCA&Fisher的線(xiàn)性判別函數(shù)PCA&Fisher的線(xiàn)性判別函數(shù)PCA&Fisher的線(xiàn)性判別函數(shù)Fisherfaces示例(ORLDatabase)Fisherfaces示例(ORLDatabase)基于eigenfaces/fisherfaces的識(shí)別訓(xùn)練:-根據(jù)訓(xùn)練圖像,利用PCA或Fisher方法確定投影矩陣-將每個(gè)訓(xùn)練圖像投影到子空間(eigenspace或fisherspace)。識(shí)別:-將測(cè)試圖像投影到eigenspace或fisherspace。-子空間中距離測(cè)試圖像最近的訓(xùn)練圖像對(duì)應(yīng)的類(lèi)別為識(shí)別結(jié)果?;趀igenfaces/fisherfaces的識(shí)別訓(xùn)練:Project5:人臉合成平均人臉平均就是美Project5:人臉合成平均平均Project5:人臉合成Project5:人臉合成Project5:人臉合成Project5:人臉合成Project5:人臉合成Project5:人臉合成Project5:人臉合成Project5:人臉合成Project5:人臉合成FantaMorph,人臉合成軟件Project5:人臉合成FantaMorph,人臉合成軟件Project5:人臉合成FantaMorph,人臉合成軟件手動(dòng)標(biāo)定人臉Project5:人臉合成FantaMorph,人臉合成軟件Project5:人臉合成FantaMorph,人臉合成軟件手動(dòng)標(biāo)定人臉Project5:人臉合成FantaMorph,人臉合成軟件Project5:人臉合成FantaMorph,人臉合成軟件產(chǎn)生多張合成圖像,隨機(jī)或者平均輸出Project5:人臉合成FantaMorph,人臉合成軟件Project5:人臉合成Task:利用人臉檢測(cè)算法,將上述過(guò)程改為自動(dòng)完成,實(shí)現(xiàn)自動(dòng)人類(lèi)合成。Project5:人臉合成Task:利用人臉檢測(cè)算法,將上述第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引第三節(jié)深度學(xué)習(xí)導(dǎo)引神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)的大量參數(shù)神經(jīng)網(wǎng)絡(luò)的大量參數(shù)神經(jīng)網(wǎng)絡(luò)的表現(xiàn)能力神經(jīng)網(wǎng)絡(luò)的表現(xiàn)能力神經(jīng)網(wǎng)絡(luò)的表現(xiàn)能力神經(jīng)網(wǎng)絡(luò)的表現(xiàn)能力神經(jīng)網(wǎng)絡(luò)的表現(xiàn)能力神經(jīng)網(wǎng)絡(luò)的表現(xiàn)能力神經(jīng)網(wǎng)絡(luò)的表現(xiàn)能力神經(jīng)網(wǎng)絡(luò)的表現(xiàn)能力卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積層的作用卷積神經(jīng)網(wǎng)絡(luò)卷積層的作用卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)池化層的作用卷積神經(jīng)網(wǎng)絡(luò)池化層的作用卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)激活函數(shù)卷積神經(jīng)網(wǎng)絡(luò)激活函數(shù)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)Softmax層的作用卷積神經(jīng)網(wǎng)絡(luò)Softmax層的作用卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)的預(yù)處理卷積神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)的預(yù)處理卷積神經(jīng)網(wǎng)絡(luò)的實(shí)例Alexnet卷積神經(jīng)網(wǎng)絡(luò)的實(shí)例Alexnet卷積神經(jīng)網(wǎng)絡(luò)的實(shí)例Alexnet卷積神經(jīng)網(wǎng)絡(luò)的實(shí)例Alexnet卷積神經(jīng)網(wǎng)絡(luò)的實(shí)例FCN網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的實(shí)例FCN網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的實(shí)例FCN網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的實(shí)例FCN網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的實(shí)例FCN網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的實(shí)例FCN網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 工程造價(jià)申請(qǐng)書(shū)
- 2025年度急救藥品冷鏈物流配送合同范本
- 2025年度人工智能技術(shù)研發(fā)股權(quán)轉(zhuǎn)讓及市場(chǎng)推廣合同
- 中國(guó)鐵路信號(hào)器材行業(yè)市場(chǎng)調(diào)研分析及投資前景預(yù)測(cè)報(bào)告
- 殘疾人創(chuàng)業(yè)扶持申請(qǐng)書(shū)
- 2025年加油站綠色能源采購(gòu)與使用協(xié)議
- 病人職工申請(qǐng)書(shū)
- 2025年度餐飲項(xiàng)目居間服務(wù)合同樣本
- 赴日留學(xué)申請(qǐng)書(shū)
- 2025年度房地產(chǎn)買(mǎi)賣(mài)合同擔(dān)保書(shū)規(guī)范范本
- ## 外事領(lǐng)域意識(shí)形態(tài)工作預(yù)案
- CJJ 169-2012城鎮(zhèn)道路路面設(shè)計(jì)規(guī)范
- 第八單元金屬和金屬材料單元復(fù)習(xí)題-2023-2024學(xué)年九年級(jí)化學(xué)人教版下冊(cè)
- 鋼鐵是怎樣煉成的保爾成長(zhǎng)史
- 精神科護(hù)理技能5.3出走行為的防范與護(hù)理
- 煤礦機(jī)電運(yùn)輸培訓(xùn)課件
- 采購(gòu)管理學(xué)教學(xué)課件
- 《供應(yīng)商質(zhì)量會(huì)議》課件
- 江蘇省科技企業(yè)孵化器孵化能力評(píng)價(jià)研究的中期報(bào)告
- 供應(yīng)商審核培訓(xùn)教程
- 酒精性肝硬化伴食管胃底靜脈曲張破裂出血的護(hù)理查房
評(píng)論
0/150
提交評(píng)論