




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
1、2022年8月20日1Semi-supervised Learning by Sparse RepresentationShuicheng Yan Huan WangLecturer: Yitao Zhai2022/8/20作者的相關(guān)信息Shuicheng Yan第一作者新加坡國立大學(xué)助理教授簡歷2019和2019年分別從北京大學(xué)獲得應(yīng)用數(shù)學(xué)的學(xué)士和博士學(xué)位分別在微軟亞洲研究院,UIUC,香港中文大學(xué)做過研究工作研究方向圖像與視頻中的行為檢測子空間學(xué)習(xí)與流形學(xué)習(xí)物體識別與分類生物識別醫(yī)學(xué)圖像分析論文期刊: 36, 會議: 69.個人主頁: .sg/stfpage/eley
2、ans/作者的相關(guān)信息Huan Wang第二作者00-04 浙江大學(xué) 信息與電子工程學(xué)院04-07 香港中文大學(xué) 信息工程學(xué)院目前在耶魯大學(xué)計算機學(xué)院研究方向計算機視覺,機器學(xué)習(xí),信源編碼,嵌入式系統(tǒng)等發(fā)表論文第一作者論文5篇 :CVPR 08; IJCAI 07(oral); CVR07; ICML07( oral); ACM MM06主頁.hk/huan/Welcome.htmljoyousprince.spaces.live/2022年8月20日3文章出處S. Yan and H. Wang. Semi-supervised learning by sp
3、arse representation. SIAM International Conference on Data Mining(SDM09).相關(guān)文獻J. Wright, A. Ganesh, A. Yang, and Y. Ma: Robust face recognition via sparse representation. TPAMI, in press, 2019.X. Zhu, Z. Ghahramani, and J. Lafferty. Semi-supervised learning using Gaussian fields and harmonic function
4、s. ICML, 2019.D. Cai, X. He, and J. Han. Semi-supervised discriminant analysis. ICCV, 2019.2022年8月20日4SIAM 簡介工業(yè)和應(yīng)用數(shù)學(xué)學(xué)會 (Society for Industry and Applied Mathematics ,SIAM) 于二十世紀(jì)五十年代前期在美國成立,是一個以促進應(yīng)用和計算數(shù)學(xué)的研究、發(fā)展、應(yīng)用為目的的協(xié)會SIAM以出版的高水準(zhǔn)和頗具聲譽的期刊而自豪。SIAM中共包括13種期刊,這13種同行評審的研究期刊在應(yīng)用和計算數(shù)學(xué)的高等研究領(lǐng)域非常著名,它們涵蓋了整個應(yīng)用和計算數(shù)
5、學(xué)領(lǐng)域,內(nèi)容豐富而全面。根據(jù)ISI公司2019年出版的期刊引用報告JCR,幾乎所有SIAM的期刊的影響因子都接近或超過1。 SIAM Review獲得“數(shù)學(xué)”領(lǐng)域前所未有的高影響因子6.118 在應(yīng)用數(shù)學(xué)領(lǐng)域的162種期刊中,SIAM的期刊占據(jù)了前25位中的7席主頁: /2022年8月20日5摘要本文中,我們提出了一種基于L1 Graph的半監(jiān)督學(xué)習(xí)框架。L1 Graph 受啟發(fā)于每個樣本可以通過訓(xùn)練數(shù)據(jù)的稀疏線性加和進行重建。通過一個求解L1優(yōu)化問題,可以得到稀疏重建的系數(shù),然后利用這些系數(shù)作為L1 Graph的邊的權(quán)重。傳統(tǒng)的構(gòu)造圖的方法包含兩個獨立的步驟:確定邊是否鄰接;
6、計算邊的權(quán)重。L1 Graph將這兩個步驟合并進行,而且構(gòu)造L1 Graph的過程是與參數(shù)無關(guān)的。受啟發(fā)于稀疏表示在人臉識別領(lǐng)域的成功應(yīng)用,我們提出了基于L1-Graph的半監(jiān)督學(xué)習(xí)框架。在半監(jiān)督人臉識別與圖像分類上的大量實驗證明了我們的L1Graph框架的優(yōu)越性。2022年8月20日6文章結(jié)構(gòu)AbstractIntroductionTraditional Graph ConstructionL1-Graph:Motivation and ConstructionSemi-supervised Learning over L1-GraphExperimentsConclusion and Fu
7、ture Work2022年8月20日7講解提綱圖模型稀疏表示與L1-GraphL1-Graph與半監(jiān)督學(xué)習(xí)L1-Graph與半監(jiān)督辨別分析實驗結(jié)論及未來工作2022年8月20日8講解提綱圖模型稀疏表示與L1-GraphL1-Graph與半監(jiān)督學(xué)習(xí)L1-Graph與半監(jiān)督辨別分析實驗結(jié)論及未來工作2022年8月20日9圖模型訓(xùn)練集可以看做一個無向有權(quán)圖G=X,WX:頂點集,每個訓(xùn)練樣本是圖中的一個頂點 ,N為訓(xùn)練樣本數(shù)W:相似度矩陣, 表示樣本i和樣本j的相似度傳統(tǒng)的圖模型構(gòu)造方法分為兩步:確定兩個頂點間是否存在一條邊計算邊權(quán)重 2022年8月20日10Step1:選擇邊 近鄰如果兩個樣本點滿
8、足 ,則兩個樣本間存在一條邊常常導(dǎo)致若干個獨立的子圖K最近鄰如果 是 的最近鄰的K個樣本之一,那么這兩個樣本間存在一條邊2022年8月20日11Step2:計算邊的權(quán)重高斯核歐式距離的倒數(shù)局部線性重建系數(shù):通過最小化L2重建誤差,用樣本的近鄰樣本對其進行重建2022年8月20日12傳統(tǒng)圖模型的缺點選擇邊和計算權(quán)重分開進行嚴(yán)重依賴與參數(shù) 中的 ,K近鄰中的K尤其是 ,很難選取一個合適的應(yīng)用于分類任務(wù)時往往效果很差歐式距離下最近鄰的樣本往往并非同類樣本2022年8月20日13需要什么樣的圖自適應(yīng)的調(diào)整樣本間關(guān)系傳統(tǒng)方法中,不同的數(shù)據(jù)分布就需要不同的參數(shù)Parameter-Free稀疏性表征樣本間局
9、部關(guān)系的稀疏圖包含對分類有用的信息1存儲開銷辨別能力更好的用于分類任務(wù)目標(biāo):同類樣本間權(quán)重較高,不同類樣本間權(quán)重較低1M. Belkin and P. Niyogi. Laplacian eigenmaps for dimensionality reduction and data representation. Neural Computation, 2019.2022年8月20日14講解提綱圖模型稀疏表示與L1-GraphL1-Graph與半監(jiān)督學(xué)習(xí)L1-Graph與半監(jiān)督辨別分析實驗結(jié)論及未來工作2022年8月20日152022年8月20日稀疏表示:示例fromSubject 1down
10、-sampleto 12x10對應(yīng)兩個最大的系數(shù)擴展YaleB上隨機選取1207個樣本作為基,使用最小化L1范式后得到的稀疏系數(shù)。可以看出,對應(yīng)最大的兩個系數(shù)都是測試樣本的同類樣本。稀疏表示受啟發(fā)與稀疏表示在人臉識別上的成功應(yīng)用1任一訓(xùn)練樣本可以由其余訓(xùn)練樣本的線性組合來重構(gòu)(允許一定重構(gòu)誤差),重構(gòu)系數(shù)是稀疏的使用重構(gòu)系數(shù)做為兩個樣本之間的權(quán)重,表征樣本間關(guān)系求解稀疏表示是一個最小化L1范式問題 是一組基,y為待表示樣本, 為重建系數(shù)1 J. Wright, A. Ganesh, A. Yang, and Y. Ma: Robust face recognition via sparse r
11、epresentation. TPAMI, in press, 2019.2022年8月20日17最小化L1范式最小化L1范式問題:特征維數(shù)遠大于樣本數(shù)目時,往往得不到稀疏的表示 L1 Graph的做法:對任一樣本,用除它之外的所有樣本做基求解最小化L1范式問題求解方法基追蹤(Basis pursuit)匹配追蹤(Matching pursuit)最小全變分法迭代閾值法2022年8月20日18L1 Graph2022年8月20日19L1-Graph優(yōu)點L1-Graph 是稀疏的通過最小化L1范式得到的非零系數(shù)一般遠小于特征維數(shù)L1-Graph是自適應(yīng)的L1-Graph中每個樣本近鄰的數(shù)目是通過
12、最小化L1范式來確定的,不需要人工設(shè)置參數(shù)L1-Graph包含辨別信息權(quán)重較大邊往往連接了同類的樣本2022年8月20日20L1 VS L2LLE也是最小化重建誤差最小化L1: 為什么不用LLE?LLE一般得不到稀疏表示LLE的最小化重建誤差僅涉及部分樣本LLE需要確定參數(shù)2022年8月20日21不同Graph的鄰接矩陣Yale上165幅圖片b: k=3 ?2022年8月20日22講解提綱圖模型稀疏表示與L1-GraphL1-Graph與半監(jiān)督學(xué)習(xí)L1-Graph與半監(jiān)督辨別分析實驗結(jié)論及未來工作2022年8月20日23半監(jiān)督學(xué)習(xí)動機:現(xiàn)實應(yīng)用中缺少足夠有標(biāo)注的訓(xùn)練數(shù)據(jù)半監(jiān)督學(xué)習(xí):通過利用有標(biāo)
13、注數(shù)據(jù)和未標(biāo)注數(shù)據(jù)間的數(shù)據(jù)分布關(guān)系來提升訓(xùn)練效果方法:EM with generative mixture models self-training co-trainingtransductive support vector machines,graph-based methods.2022年8月20日24基于圖的半監(jiān)督學(xué)習(xí)Graph Preserving Criteria其中 , , 是表征樣本 屬于不同類的概率的向量,即 其中K是類別數(shù), 是給定類別k時 屬于此類的概率對于半監(jiān)督學(xué)習(xí), , 是有標(biāo)注樣本的概率向量, 是無標(biāo)注樣本的概率向量對于 2022年8月20日25直觀解釋當(dāng)樣本 非常
14、相似時,那么他們之間的邊的權(quán)重 就比較大,通過最小化這個目標(biāo)函數(shù)使得樣本之間的類別概率向量 相似,即 之間的類別信息相似。相似樣本屬于同一類2022年8月20日26目標(biāo)函數(shù)化簡 其中 D為 對角矩陣, 即W每行的元素和,其余元素全為0, 為W每列的元素的和。 ,其中C是對稱矩陣2022年8月20日27推導(dǎo)過程的部分詳解標(biāo)準(zhǔn)二次型矩陣的跡等于矩陣對角元素的和2022年8月20日28半監(jiān)督學(xué)習(xí)求解公式 對Y求導(dǎo),得到 即 可以推出: 利用這個公式就可以求出未標(biāo)注樣本的類別2022年8月20日29講解提綱圖模型稀疏表示與L1-GraphL1-Graph與半監(jiān)督學(xué)習(xí)L1-Graph與半監(jiān)督辨別分析實驗
15、結(jié)論及未來工作2022年8月20日30L1-Graph+SDASDASemi-supervised Discriminant Analysis,是一種基于圖的半監(jiān)督降維方法,可以同L1 Graph結(jié)合起來把在低維特征空間定義的平滑正則項(Smoothness Regularization term)同類內(nèi)散度結(jié)合起來,通過廣義特征值分解找到最優(yōu)的投影方向2022年8月20日31SDA:MotivationLDA很強大,但無法直接用于半監(jiān)督學(xué)習(xí),此時由于部分樣本類別信息的缺失,不能很好的估記類內(nèi)散度矩陣SDA使用有類別樣本最大化不同類間的可分性,使用所有樣本(有類別和無類別)估計數(shù)據(jù)間的內(nèi)在結(jié)構(gòu)
16、數(shù)據(jù)間的內(nèi)在結(jié)構(gòu):總體散度矩陣,圖模型2022年8月20日32RDALDA目標(biāo)函數(shù):當(dāng)訓(xùn)練樣本不足時,為了防止overfitting,有時會加入一個正則項,即RDA(Regularized Discriminant Analysis)2022年8月20日33RDA當(dāng)有部分無類別樣本時,設(shè)計 使其包含數(shù)據(jù)的流形結(jié)構(gòu)對于降維,近鄰樣本應(yīng)該有近似的低維表示使用圖來表征近鄰樣本間關(guān)系2022年8月20日34SDA定義正則項:最小化這個正則項,使得原始空間中臨近的樣本在映射后的低維空間中仍然相鄰。目標(biāo)函數(shù): 直觀解釋:最大化類間散度矩陣的同時,最小化總體散度矩陣,并使得原始空間中臨近的樣本在映射后的低維
17、空間中仍然相鄰2022年8月20日35SDA求解目標(biāo)函數(shù):D為對角矩陣,對角元素為W各行元素的和原目標(biāo)函數(shù)化為:求解 可得到映射2022年8月20日36講解提綱圖模型稀疏表示與L1-GraphL1-Graph與半監(jiān)督學(xué)習(xí)L1-Graph與半監(jiān)督辨別分析實驗結(jié)論及未來工作2022年8月20日37實驗6個人臉識別庫XM2VTS:295人,每人4張共1180幅圖片,分辨率36*32ORL: 40人每人10張共400幅圖片,分辨率32*28FERET:70人,每人6張圖片共420幅圖片,32*32CMU PIE:68人,每人選7幅(C27,C05,C29,C09,C07,及光照變化的8和11),32*32Yale:15人,每人11幅圖片,32*32FRGC:275人的5628幅圖片,每人圖片數(shù)從4到6不等,32*32物體分類的數(shù)據(jù)庫ETH-80:8類圖片,每類10個不同的物體共80個,每個物體41幅圖片2022年8月20日38對比圖L1-GraphLLE-GraphK=3或K=6KNN-Graph K=3或K=6高斯核 高斯核2022年8月20日39實驗結(jié)果2022年8月20日40L1-Graph+SDA2022年8月20日41圖對參數(shù)的敏感性實驗FERET上的實驗2022年8月20日42標(biāo)注樣本的影響2022年8月20日43講解提綱圖模型稀疏表示與L1-GraphL1-Graph與
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 卓越表現(xiàn)國際物流師試題及答案
- 2025年有機廢水沼氣系統(tǒng)項目投資風(fēng)險評估報告
- 2025年鋁鍛壓材合作協(xié)議書
- 2024年CPMM綜合技能試題及答案
- 采購合同管理在供應(yīng)鏈中的重要性試題及答案
- 2024年物流與供應(yīng)鏈整合試題及答案
- 深度解析2024年圖書管理員考試試題及答案
- 統(tǒng)編版語文五年級下冊第10課《青山處處埋忠骨》精美課件
- 2024年CPMM知識更新必看試題及答案
- 2024年湖北省網(wǎng)格員轉(zhuǎn)聘社區(qū)工作者理論備考試題庫(含答案)
- 居民死亡醫(yī)學(xué)證明書英文翻譯模板
- 勞 務(wù) 中 標(biāo) 通 知 書
- 建房界址四鄰無爭議確認(rèn)表
- 化工安全工程:第四章 泄漏源及擴散模式
- 流變性以及其調(diào)整
- 完整版安全生產(chǎn)培訓(xùn)內(nèi)容
- 醫(yī)院關(guān)于待崗、停崗的規(guī)定
- [四川]”尋仙蹤、走詩路“詩歌度假小鎮(zhèn)規(guī)劃概念方案
- 10大氣復(fù)合污染條件下新粒子生成與二次氣溶膠增長機制
- 2022危險化學(xué)品企業(yè)重點人員安全資質(zhì)達標(biāo)導(dǎo)則-應(yīng)急?;?021〕1號
- 魯迅小說中的“記憶”敘事
評論
0/150
提交評論