人工智能算法分析 課件 【ch06】遷移學(xué)習(xí)_第1頁
人工智能算法分析 課件 【ch06】遷移學(xué)習(xí)_第2頁
人工智能算法分析 課件 【ch06】遷移學(xué)習(xí)_第3頁
人工智能算法分析 課件 【ch06】遷移學(xué)習(xí)_第4頁
人工智能算法分析 課件 【ch06】遷移學(xué)習(xí)_第5頁
已閱讀5頁,還剩49頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

人工智能算法分析新知識體系人工智能教材遷移學(xué)習(xí)第六章遷移學(xué)習(xí)及其

研究現(xiàn)狀016.1.1遷移學(xué)習(xí)概念遷移學(xué)習(xí)目前在學(xué)術(shù)界還沒有一個(gè)統(tǒng)一的嚴(yán)格定義,本書采取目前認(rèn)可度最高的定義概念。該概念認(rèn)為遷移學(xué)習(xí)強(qiáng)調(diào)的是在不同但是相似的領(lǐng)域、任務(wù)和分布之間進(jìn)行知識遷移。這里介紹本書中用到的一些符號和定義,首先給出“領(lǐng)域”和“任務(wù)”的定義。6.1.1遷移學(xué)習(xí)概念領(lǐng)域D(Domain)包含兩個(gè)部分,特征空間X及邊緣概率分布P(X)。若兩個(gè)領(lǐng)域

不同,則其特征空間或邊緣概率分布不同,即或。任務(wù)T(Task)給定一個(gè)特定的領(lǐng)域,一個(gè)任務(wù)T=(Y,f(·))包含兩部分內(nèi)容:標(biāo)記空間Y及目標(biāo)預(yù)測函數(shù)f(·),其中,目標(biāo)預(yù)測函數(shù)f(·)從訓(xùn)練數(shù)據(jù)集中學(xué)習(xí)而得到,而訓(xùn)練樣本為多個(gè)。6.1.1遷移學(xué)習(xí)概念預(yù)測函數(shù)f(·)被用于預(yù)測新樣本點(diǎn)x的類別標(biāo)記,從概率的角度可以將f(x)表述為P(y|x)。在分類問題中,Y是己標(biāo)記樣本的集合,即對于一個(gè)二分類問題而言,只的值為“真”或“假”。定義源域樣本為,其中,樣本描述,為相應(yīng)的類別標(biāo)記。在文本分類例子中,

是詞向量的集合,其值為真或假;目標(biāo)域樣本為

,其中,為輸入,為相應(yīng)的輸出。并且在多數(shù)情況下,源域樣本的數(shù)量遠(yuǎn)遠(yuǎn)多于目標(biāo)域樣本的數(shù)量,即,遷移學(xué)習(xí)可以定義為,給定源域樣本

,和相應(yīng)的學(xué)習(xí)任務(wù)

,目標(biāo)域

和相應(yīng)的學(xué)習(xí)任務(wù),以及目標(biāo)預(yù)測函數(shù)f(·)時(shí),使用

中的知識來提高

中的目標(biāo)預(yù)測函數(shù)f(·)的性能,其中,或者。6.1.1遷移學(xué)習(xí)概念根據(jù)領(lǐng)域和任務(wù)的不同,以及樣本是否有標(biāo)記,可以對相關(guān)的研究進(jìn)行分類,遷移學(xué)習(xí)分類如圖6.1所示。其中,歸納遷移學(xué)習(xí)假設(shè)當(dāng)前領(lǐng)域己經(jīng)包含少量的獨(dú)立分布的訓(xùn)練樣本,而直推遷移學(xué)習(xí)假設(shè)目標(biāo)域不包含任何訓(xùn)練樣本。6.1.2遷移學(xué)習(xí)研究現(xiàn)狀遷移學(xué)習(xí)在20世紀(jì)90、年代被引入機(jī)器學(xué)習(xí)領(lǐng)域,用于改進(jìn)許多機(jī)器學(xué)習(xí)算法的缺陷,即需要依賴大量的標(biāo)記數(shù)據(jù)來訓(xùn)練出高精度的學(xué)習(xí)器,且訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)必須滿足同分布的條件。遷移學(xué)習(xí)方法根據(jù)不同任務(wù)間的相似性,將源域數(shù)據(jù)向目標(biāo)域遷移,實(shí)現(xiàn)對己有知識的利用,使傳統(tǒng)的從零開始的學(xué)習(xí)變成可積累的學(xué)習(xí),并且提高了學(xué)習(xí)效率。綜上所述,提高機(jī)器學(xué)習(xí)能力的關(guān)鍵在于,要讓機(jī)器像人類一樣能夠利用過去學(xué)到的知識來完成各種事務(wù),其中最關(guān)鍵的問題就是讓機(jī)器學(xué)會遷移學(xué)習(xí)。學(xué)會了遷移學(xué)習(xí),機(jī)器就會充分利用以前學(xué)到的知識,提高其能力,從而更好地實(shí)現(xiàn)增量學(xué)習(xí)。6.1.2遷移學(xué)習(xí)研究現(xiàn)狀然而,正是由于遷移學(xué)習(xí)的引入,使得遷移學(xué)習(xí)比傳統(tǒng)的機(jī)器學(xué)習(xí)復(fù)雜得多。這是由其本身存在的問題導(dǎo)致的,主要有三個(gè)方面,即遷移什么?怎樣遷移?何時(shí)遷移?只有很好地解決這些問題,才能更好地應(yīng)用遷移學(xué)習(xí)。遷移什么?主要研究哪部分知識能夠在領(lǐng)域或任務(wù)之間遷移。有些知識可能對某些特殊的領(lǐng)域是重要的,也可能在不同的領(lǐng)域之間是共亭的,它們能夠提高目標(biāo)域的學(xué)習(xí)效率。怎樣遷移?主要是研究利用什么方法進(jìn)行遷移。何時(shí)遷移?主要是研究在什么情形下進(jìn)行遷移。本章主要講述遷移學(xué)習(xí)算法。通過對一些遷移學(xué)習(xí)算法的講解,使得讀者對遷移學(xué)習(xí)有更深刻的認(rèn)識。TrAdaBoost算法和層次貝葉斯算法既是遷移學(xué)習(xí)的基礎(chǔ),也是重要算法,推動(dòng)遷移學(xué)習(xí)不斷向前發(fā)展。因此,在本章我們將對TrAdaBoost算法和層次貝葉斯算法進(jìn)行介紹。TrAdaBoost算法026.2.1背景實(shí)例遷移學(xué)習(xí)方法的假設(shè):雖然源域的數(shù)據(jù)不能直接用作目標(biāo)域的訓(xùn)練數(shù)據(jù),但其中的部分訓(xùn)練數(shù)據(jù)分布類似目標(biāo)域數(shù)據(jù),經(jīng)過一定處理后可以重新利用,其中,關(guān)鍵的技術(shù)就是如何對這部分訓(xùn)練數(shù)據(jù)進(jìn)行權(quán)重計(jì)算。實(shí)例遷移學(xué)習(xí)技術(shù)經(jīng)常采用各種啟發(fā)式方法來對源域的訓(xùn)練數(shù)據(jù)進(jìn)行權(quán)重計(jì)算,在這個(gè)過程中可能需要借助少量的目標(biāo)訓(xùn)練數(shù)據(jù)作為基準(zhǔn)。6.2.1背景目前,大多數(shù)實(shí)例遷移學(xué)習(xí)研究都集中在文本分類領(lǐng)域。Dai等人提出了TrAdaBoost算法,用于解決歸納遷移學(xué)習(xí)問題。假設(shè)源域和目標(biāo)域的數(shù)據(jù)使用同樣的特征集合和標(biāo)記集合,但是這兩個(gè)領(lǐng)域上的數(shù)據(jù)分布不同。此外,還假設(shè)由于兩個(gè)領(lǐng)域上的數(shù)據(jù)分布不同,一些源域的“好”數(shù)據(jù)有益于目標(biāo)域的學(xué)習(xí)效果,同時(shí),另外一些“壞”數(shù)據(jù)可能會損害目標(biāo)域的學(xué)習(xí)。TrAdaBoost算法通過在每一次選代中適當(dāng)調(diào)整權(quán)重大小的方式不斷降低“壞”數(shù)據(jù)的影響,同時(shí)不斷放大“好”數(shù)據(jù)對目標(biāo)域的幫助。在每一次選代中,基于加權(quán)后的源域數(shù)據(jù)和目標(biāo)域數(shù)據(jù),訓(xùn)練一個(gè)基準(zhǔn)分類器,并計(jì)算該分類器在目標(biāo)域數(shù)據(jù)上的誤差。作為AdaBoost的擴(kuò)展,TrAdaBoost使用與其相同的策略來更新被錯(cuò)誤分類的目標(biāo)域數(shù)據(jù)的權(quán)重,但被錯(cuò)誤分類的源域數(shù)據(jù)的權(quán)重更新策略與AdaBoost不同。最后,對TrAdaBoost進(jìn)行了理論分析。6.2.2算法介紹通常,領(lǐng)域D由特征空間X組成,邊緣概率分布為P(X),其中。將問題簡化為二分類問題,任務(wù)T由標(biāo)記的空間Y組成,Y={+1,-1},對于多分類問題,可以依此進(jìn)行推廣,映射關(guān)系用布爾函數(shù)表示f:X→Y。傳統(tǒng)機(jī)器學(xué)習(xí)問題從領(lǐng)域D中學(xué)習(xí)任務(wù)T,從給定訓(xùn)練數(shù)據(jù)中估計(jì)分類器函數(shù),其中最好的近似函數(shù)f根據(jù)確定的標(biāo)準(zhǔn)得到。定義目標(biāo)域,從目標(biāo)訓(xùn)練數(shù)據(jù)1中學(xué)習(xí)得到目標(biāo)任務(wù)。同樣,定義源域,從源訓(xùn)練數(shù)據(jù)中學(xué)習(xí)源任務(wù)。利用在源域

中學(xué)習(xí)得到的源任務(wù)的知識來提高目標(biāo)分類器函數(shù)的學(xué)習(xí)性能,這稱為歸納遷移學(xué)習(xí)。和傳統(tǒng)的機(jī)器學(xué)習(xí)不同,歸納遷移學(xué)習(xí)體現(xiàn)出很大的優(yōu)勢,當(dāng)目標(biāo)訓(xùn)練數(shù)據(jù)集

和源數(shù)據(jù)集

相比非常小時(shí),。事實(shí)上,傳統(tǒng)的機(jī)器學(xué)習(xí)很難處理這種問題,可以考慮通過從源域遷移知識來調(diào)整學(xué)習(xí)問題,這樣就可以合理地分配資源,以獲得大量用于學(xué)習(xí)源任務(wù)的訓(xùn)練數(shù)據(jù)。6.2.2算法介紹在目標(biāo)域中,如果己標(biāo)記樣本很少,不足以訓(xùn)練一個(gè)較好的分類模型,但是源域樣本的特征與目標(biāo)域相似,這時(shí)期望源域中的某些樣本的知識可指導(dǎo)目標(biāo)域的學(xué)習(xí)。為了達(dá)到該目的,在AdaBoost算法訓(xùn)練過程中,不斷調(diào)整樣本的權(quán)重,用此方法可以選出樣本。選出源域樣本流程圖如圖6.2所示。6.2.2算法介紹TrAdaBoost方法的關(guān)鍵思想是利用Boosting的技術(shù)來過濾掉輔助數(shù)據(jù)中那些與源訓(xùn)練數(shù)據(jù)最不相似的數(shù)據(jù)。其中,Boosting的作用是建立一種自動(dòng)調(diào)整權(quán)重的機(jī)制,于是重要的輔助訓(xùn)練數(shù)據(jù)的權(quán)重將會增加,不重要的輔助訓(xùn)練數(shù)據(jù)的權(quán)重將會減小。調(diào)整權(quán)重之后,這些帶權(quán)重的輔助訓(xùn)練數(shù)據(jù)將會作為額外的訓(xùn)練數(shù)據(jù),與源訓(xùn)練、數(shù)據(jù)一起來提高分類模型的可靠度。在一些研究中,AdaBoost被用在了目標(biāo)訓(xùn)練數(shù)據(jù)中,以保證分類模型在源數(shù)據(jù)上的準(zhǔn)確性。與此同時(shí),它也被應(yīng)用在了源訓(xùn)練數(shù)據(jù)上,用以自動(dòng)調(diào)節(jié)輔助訓(xùn)練數(shù)據(jù)的權(quán)重。于是,得到了一個(gè)新的Boosting算法——TrAdaBoost。TrAdaBoost算法的直觀示例如圖6.3所示。6.2.2算法介紹由于邊緣分布可能不同,布爾函數(shù)也可能不同,導(dǎo)致源域和目標(biāo)域可能不同。TrAdaBoost算法能自動(dòng)發(fā)現(xiàn)哪一部分知識用于源域,哪一部分知識是源域和目標(biāo)域共享的,并且提出了一種從源域到目標(biāo)域遷移知識的方法。TrAdaBoost是第一種使用Boosting作為最合適的歸納遷移學(xué)習(xí)器的遷移學(xué)習(xí)算法,也是應(yīng)用最廣泛的。TrAdaBoost以迭代的方式訓(xùn)練基分類器,對源域和目標(biāo)域的數(shù)據(jù)進(jìn)行加權(quán),它的算法描述如下所示。采用不同策略對兩個(gè)領(lǐng)域的訓(xùn)練樣本進(jìn)行權(quán)重調(diào)整:對目標(biāo)域樣本,若基分類器對其分類錯(cuò)誤,則增加其權(quán)重,以提高在下一輪迭代中被正確分類的可能性,這種策略與AdaBoost相同;對源域樣本,若基分類器分類錯(cuò)誤,則認(rèn)為該樣本的相關(guān)性較小,降低其權(quán)重,與在線分配相同。6.2.2算法介紹算法1TrAdaBoost算法描述輸入兩個(gè)訓(xùn)練數(shù)據(jù)集和

[合井的訓(xùn)練數(shù)據(jù)集],一個(gè)未標(biāo)注的測試數(shù)據(jù)集S,一個(gè)基本的分類算法Learner,以及迭代次數(shù)n。初始化初始權(quán)重向量6.2.2算法介紹調(diào)用Learner,根據(jù)合并后的訓(xùn)練數(shù)據(jù)T、T上的權(quán)重分布

和未標(biāo)注數(shù)據(jù)S得到一個(gè)在測試數(shù)據(jù)集S上的分類器。從以上分析中不難看出,TrAdaBoost和AdaBoost的區(qū)別在于對源訓(xùn)練數(shù)據(jù)的權(quán)重調(diào)整策略。在每一輪迭代中,如果一個(gè)源訓(xùn)練數(shù)據(jù)被誤分類,那么這個(gè)數(shù)據(jù)可能和目標(biāo)訓(xùn)練數(shù)據(jù)是矛盾的。若降低這個(gè)數(shù)據(jù)的權(quán)重,則在下一輪法代中,被誤分類的訓(xùn)練數(shù)據(jù)對分類模型的影響就會比上一輪小一些。于是,在若干輪迭代后,源訓(xùn)練數(shù)據(jù)中符合目標(biāo)訓(xùn)練數(shù)據(jù)的那些數(shù)據(jù)就會擁有更高的權(quán)重,而那些不符合目標(biāo)訓(xùn)練數(shù)據(jù)的數(shù)據(jù)的權(quán)重會降低。那些擁有更高權(quán)重的數(shù)據(jù)將會幫助目標(biāo)訓(xùn)練數(shù)據(jù)訓(xùn)練一個(gè)更好的分類模型。但是TrAdaBoost方法也有一些缺點(diǎn),一些學(xué)者分別針對這些缺點(diǎn)采取了相應(yīng)的改進(jìn)辦法,主要包括以下幾個(gè)方面。6.2.2算法介紹忽略了分類器集合的前半部分一些研究給出了解決方案,只保留了分類器集合中針對較難分類樣本的后半部分分類器,而丟棄了適用于大多數(shù)樣本的前半部分分類器。源域權(quán)重的下降速度過快一些研究驗(yàn)證了這種快速收斂性,在TrAdaBoost算法的重新確定權(quán)重策略中,源樣本和目標(biāo)樣本的權(quán)重差異性逐漸增加,并且在隨后的Boosting法代中,當(dāng)源樣本變得有利時(shí),其權(quán)重也沒有辦法恢復(fù)。權(quán)重不匹配當(dāng)源樣本的規(guī)模比目標(biāo)樣本的規(guī)模大得多時(shí),需要經(jīng)過多次選代,才能使目標(biāo)樣本的總體權(quán)重接近源樣本的總體權(quán)重。但是,如果給目標(biāo)樣本分配較多的初始權(quán)重,那么這個(gè)問題就可以得到緩解。引用不平衡一些研究指出TrAdaBoost方法有時(shí)得出的最終分類器總是對所有的樣本給出同一個(gè)預(yù)測標(biāo)記,這實(shí)質(zhì)上是由沒有平衡不同等級之間的權(quán)重造成的。010203046.2.2算法介紹TrAdaBoost算法已經(jīng)被擴(kuò)展為許多遷移學(xué)習(xí)算法,包括回歸遷移、多源遷移、TransferBoost,TransferBoost在可以得到多個(gè)源任務(wù)的情況下采用推進(jìn)方法,它可以提升所有源樣本矢量,這些樣本均來自具有正遷移性的任務(wù)。TransferBoost計(jì)算每個(gè)源任務(wù)的整體遷移,并將其作為含源任務(wù)和不含源任務(wù)的目標(biāo)任務(wù)之間的誤差。TrAdaBoost也擴(kuò)展為概念漂移,利用AdaBoost,固定代價(jià)成為源矢量更新的一部分。將可能性估計(jì)作為測量源分布和目標(biāo)分布相關(guān)性的方法,這個(gè)代價(jià)能預(yù)先計(jì)算得到。由于這種更新源權(quán)重的方法利用了AdaBoost的更新機(jī)制,它也產(chǎn)生了一個(gè)沖突,即和目標(biāo)任務(wù)不相關(guān)的源任務(wù)會引起負(fù)遷移,它的樣本權(quán)重會以固定的或動(dòng)態(tài)變化的比率在AdaBoost更新機(jī)制中變得越來越小。AdaBoost只會增加錯(cuò)誤分類樣本的權(quán)重,而不會減小正確分類樣本的權(quán)重。6.2.3算法改進(jìn)任何歸納式遷移學(xué)習(xí)算法的有效性都依賴源域以及源域和目標(biāo)域的相關(guān)程度。利用它們之間的強(qiáng)相關(guān)性來表達(dá)遷移學(xué)習(xí)算法是合理的,當(dāng)

時(shí),可以產(chǎn)生最有效的遷移算法,這樣歸納式遷移學(xué)習(xí)就轉(zhuǎn)化為傳統(tǒng)的機(jī)器學(xué)習(xí)本節(jié)介紹一種基于TrAdaBoost算法的改進(jìn)型算法——多源動(dòng)態(tài)TrAdaBoost算法(MSD-TrAdaBoost算法),使得與目標(biāo)域相關(guān)性不大的源域樣本的權(quán)重不至于收斂過快,共同幫助學(xué)習(xí)目標(biāo)任務(wù),實(shí)現(xiàn)對所有源域知識的充分利用。6.2.3算法改進(jìn)具體做法:假設(shè)N個(gè)源域源任務(wù)和源訓(xùn)練數(shù)據(jù)

,利用它們提高目標(biāo)分類器函數(shù)的學(xué)習(xí)性能。下面給出了所提算法的詳細(xì)描述。1:初始化權(quán)重矢量,其中為第k個(gè)源訓(xùn)練樣本的權(quán)重矢量,1為目標(biāo)域訓(xùn)練樣本的權(quán)重矢量。2:設(shè),其中為全部源訓(xùn)練樣本個(gè)數(shù),

為第k個(gè)源訓(xùn)練集包含的樣本數(shù)量。3:對于t=1~m,做如下循環(huán)。4:清空候選弱分類器集合。5:將矢量歸一化。6.2.3算法改進(jìn)6:對于k=1~N,做如下循環(huán)。7:在合并數(shù)據(jù)集上調(diào)用基分類器,得到候選弱分類器。8:計(jì)算在目標(biāo)域?yàn)跎系恼`差本數(shù)量。9:更新弱分類器的權(quán)重10:結(jié)束內(nèi)循環(huán)。11:得到第t次迭代的分類器,計(jì)算在

上的誤差6.2.3算法改進(jìn)12:設(shè),其中。13:設(shè)。14:更新源樣本權(quán)重矢量,其中。15:更新日標(biāo)樣本權(quán)重矢量;,其中。16:結(jié)束外循環(huán)。其中,為了滿足,值必須小于0.5,但是,為了避免算法停止,當(dāng)

的值超過0.5時(shí),設(shè)置,MSD-TrAdaBoost算法在每步對源樣本和目標(biāo)樣本的組合集進(jìn)行訓(xùn)練的過程中都利用了TrAdaBoost中集成學(xué)習(xí)的概念。6.2.3算法改進(jìn)其中,目標(biāo)訓(xùn)練樣本對弱分類器的選擇與TrAdaBoost算法相同。調(diào)用傳統(tǒng)弱分類器模型在每一個(gè)訓(xùn)練、集訓(xùn)練得到一個(gè)弱分類器,將所有弱分類器組成弱分類器集,分別計(jì)算每個(gè)弱分類器在目標(biāo)訓(xùn)練集上的誤差,根據(jù)測試誤差給每個(gè)弱分類器加相應(yīng)的權(quán)重,誤差大的分類器的權(quán)重小,誤差小的分類器的權(quán)重大。將加權(quán)后的弱分類器集成,得到當(dāng)前迭代的候選分類器,然后計(jì)算候選分類器在目標(biāo)訓(xùn)練集和不同源訓(xùn)練集上的誤差,更新源樣本的權(quán)重,分類正確的源樣本的權(quán)重不變,分類錯(cuò)誤的樣本權(quán)重減小,減小分類錯(cuò)誤樣本的權(quán)重表示此樣本對目標(biāo)任務(wù)的學(xué)習(xí)沒有幫助,這樣可以降低此樣本對目標(biāo)學(xué)習(xí)的影響。將更新權(quán)重后的樣本重新訓(xùn)練,依次循環(huán),直到達(dá)到最大迭代次數(shù)M為止。由算法可以看出,所有源訓(xùn)練樣本都參與了每次選代訓(xùn)練,各源域中的訓(xùn)練樣本在訓(xùn)練中的權(quán)重不同,對目標(biāo)學(xué)習(xí)有幫助的樣本權(quán)重大,阻礙目標(biāo)學(xué)習(xí)的樣本權(quán)重小,經(jīng)過多次迭代,可篩選出對目標(biāo)學(xué)習(xí)幫助大的源域,充分利用多個(gè)源域所有的有用知識,最大化幫助目標(biāo)域的學(xué)習(xí)。6.2.4案例分析金融場景的借貸風(fēng)險(xiǎn)評估首先我們需要下載好必要的業(yè)內(nèi)開放的數(shù)據(jù)集,我們將金融借貸風(fēng)險(xiǎn)評估問題設(shè)計(jì)為遷移學(xué)習(xí)問題。參賽選手需要依據(jù)給定的四萬條業(yè)務(wù)A數(shù)據(jù)及四千條業(yè)務(wù)B數(shù)據(jù),建立業(yè)務(wù)B的信用評分模型。其中,業(yè)務(wù)A為信用貸款,其特征是債務(wù)人無須提供抵押品,僅憑自己的信用取得貸款,并以借款人信用程度作為還款保證;業(yè)務(wù)B為現(xiàn)金貸款,即發(fā)薪日貸款,與一般的消費(fèi)金融產(chǎn)品相比,現(xiàn)金貸款主要具有以下五個(gè)特點(diǎn):額度小、周期短、無抵押、流程快、利率高,這也是與其貸款門檻低的特征相適應(yīng)的。由于業(yè)務(wù)A和業(yè)務(wù)B存在關(guān)聯(lián)性,選手如何將業(yè)務(wù)A的知識遷移到業(yè)務(wù)B,以此增強(qiáng)業(yè)務(wù)B的信用評分模型,是本案例的重點(diǎn)。6.2.4案例分析我們將TrAdaBoost算法作為本案例解決問題的關(guān)鍵算法。需要建立兩個(gè)文件,即TrAdaBoost.py文件和main.py文件。其中,TrAdaBoost.py文件的完整代碼如下:6.2.4案例分析6.2.4案例分析6.2.4案例分析6.2.4案例分析main.py文件的完整程序如下:6.2.4案例分析6.2.4案例分析6.2.4案例分析運(yùn)行main.py文件,可以得到AUC評價(jià)結(jié)果,如圖6.5所示此外,在多輪法代后,程序運(yùn)行得分結(jié)果如圖6.6所示。層次貝葉斯算法036.3.1背景早在300年前,學(xué)者就開始思考這樣一個(gè)問題:當(dāng)存在不確定性的時(shí)候如何進(jìn)行推理?英國學(xué)者貝葉斯第一個(gè)對歸納推理給出了精確定量的表達(dá)方式,他在為解決“逆概率”問題而寫的“論機(jī)會學(xué)說中一個(gè)問題的求解”中提出了一種歸納推理的理論,后被一些統(tǒng)計(jì)學(xué)者發(fā)展為一種系統(tǒng)的統(tǒng)計(jì)推斷方法,稱為貝葉斯(Bayes)算法。近年來,機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘算法的興起為貝葉斯理論的發(fā)展和應(yīng)用提供了廣闊的空一間,在因果推理、不確定知識表達(dá)、模式識別和聚類分析等方面有著深入的研究。一些研究把基于貝葉斯估計(jì)的多傳感器數(shù)據(jù)融合方法同農(nóng)業(yè)專家系統(tǒng)相結(jié)合,針對農(nóng)業(yè)環(huán)境和資源監(jiān)測的具體情況構(gòu)造了基本概率分配函數(shù),獲得了精確的測量結(jié)果。針對隨時(shí)間變化而變化的對象模型,在非齊次馬爾可夫鏈中使用分等級的貝葉斯估計(jì)算法進(jìn)行深入研究。朱志勇等人針對在高速動(dòng)態(tài)情形下的車型識別問題,采用共犧梯法修正BP網(wǎng)絡(luò),貝葉斯對大量樣本去除“噪聲”,使特征樣本向量更具有代表性,得到的BP網(wǎng)具有更強(qiáng)的容錯(cuò)能力。也有研究者提出使用貝葉斯估計(jì)進(jìn)行分析會得到Weibull模型所需求的生命參數(shù),從而可以對癌癥存活周期進(jìn)行趨勢分析預(yù)測。6.3.1背景貝葉斯學(xué)習(xí)理論將先驗(yàn)知識與樣本信息相結(jié)合,將依賴關(guān)系與概率表示相結(jié)合,是數(shù)據(jù)挖掘和不確定性知識表示的理想模型。概括來說,貝葉斯學(xué)習(xí)理論具有下列優(yōu)點(diǎn):能夠方便地處理不完全數(shù)據(jù):能夠?qū)W習(xí)變量間的因果關(guān)系;概率分布描述的貝葉斯算法能夠提供基于模型解釋的方差信息;能夠充分利用領(lǐng)域的先驗(yàn)知識和樣本數(shù)據(jù)的雙重信息,尤其是在樣本數(shù)據(jù)稀疏或數(shù)據(jù)較難獲得時(shí),其優(yōu)勢更為明顯;與核方法、神經(jīng)網(wǎng)絡(luò)等相結(jié)合,能自動(dòng)實(shí)現(xiàn)對學(xué)習(xí)模型的復(fù)雜度控制,從而有效避免了數(shù)據(jù)的過擬合;將權(quán)空間的權(quán)重視為隨機(jī)變量,使用概率分布或概率密度表示所有形式的不確定性,這樣可以使超參數(shù)的推斷不受其數(shù)量的影響。但是,貝葉斯學(xué)習(xí)理論也存在缺點(diǎn),由于要對所有參數(shù)和數(shù)據(jù)進(jìn)行建模,因此貝葉斯模型的精確計(jì)算會導(dǎo)致計(jì)算量很大。主要的處理方法是對數(shù)據(jù)進(jìn)行Gibbs抽樣,或使用逼近算法。6.3.2算法介紹貝葉斯理論概況貝葉斯學(xué)習(xí)的理論基石是貝葉斯定理和貝葉斯假設(shè)。貝葉斯定理將事件的先驗(yàn)概率與后驗(yàn)概率聯(lián)系起來。一般情況下,設(shè)x是觀測向量,θ是未知參數(shù)向量,通過觀測向量獲得未知參數(shù)向量的估計(jì),貝葉斯定理記作01貝葉斯方法對未知參數(shù)向量估計(jì)的般過程:首先,將未知參數(shù)向量看成隨機(jī)向量;其次,根據(jù)以往對參數(shù)。的認(rèn)知,確定先驗(yàn)分布P(θ):最后,計(jì)算后驗(yàn)分布密度,做出對未知參數(shù)向量的推斷。使用假定的先驗(yàn)分布P(θ)與樣本信息相結(jié)合,運(yùn)用貝葉斯定理獲得后驗(yàn)密度。要獲得給定測試樣本的預(yù)測分布,只需要將先驗(yàn)與似然的乘積積分即可。6.3.2算法介紹貝葉斯學(xué)習(xí)的結(jié)果表示為隨機(jī)變量的概率分布,它可以理解為對不同可能性的信任程度。常用的先驗(yàn)分布有共輒先驗(yàn)分布和無信息先驗(yàn)分布。貝葉斯假設(shè)在直覺上易于被人們接受,然而它在處理無信息先驗(yàn)分布,尤其是在未知參數(shù)無界的情況中遇到了困難。貝葉斯分析方法的特點(diǎn)是使用概率表示所有形式的不確定性,用概率規(guī)則來實(shí)現(xiàn)學(xué)習(xí)和推理??梢员苊庵皇褂孟闰?yàn)信息可能帶來的主觀偏見和缺乏樣本信息時(shí)的大量盲目搜索與計(jì)算,也可以避免只使用后驗(yàn)信息帶來的噪聲影響。目前,先驗(yàn)分布的確定依據(jù)只是一些準(zhǔn)則,沒有可操作的完整理論。對于這些問題還需要進(jìn)一步深入研究。6.3.2算法介紹貝葉斯方法現(xiàn)代貝葉斯方法主要有經(jīng)驗(yàn)貝葉斯分析、層次貝葉斯分析、穩(wěn)健貝葉斯分析及貝葉斯的數(shù)值計(jì)算等。經(jīng)驗(yàn)貝葉斯分析是利用數(shù)據(jù)來估計(jì)先驗(yàn)分布的某些性質(zhì)的方法之一,分為參數(shù)經(jīng)驗(yàn)貝葉斯方法和非參數(shù)經(jīng)驗(yàn)貝葉斯方法,兩者的區(qū)別在于,前者假設(shè)θ的先驗(yàn)分布屬于某一有未知超參數(shù)的參數(shù)類;而后者典型地只假設(shè)。為獨(dú)立同分布。層次貝葉斯采用多層先驗(yàn)知識,能同時(shí)掌握結(jié)構(gòu)和主觀先驗(yàn)信息,并按步驟分階段建立模型,能得到令人滿意的效果。026.3.2算法介紹貝葉斯的數(shù)值計(jì)算通常有三種方法:數(shù)值積分、蒙特卡洛積分和解析逼近。運(yùn)用貝葉斯方法進(jìn)行分析時(shí),總會遇到對高維概率分布進(jìn)行積分的復(fù)雜問題,使得貝葉斯方法的應(yīng)用受到了很大限制。計(jì)算機(jī)技術(shù)的發(fā)展和貝葉斯方法的改進(jìn),特別是馬爾可夫鏈、蒙特卡洛MCMC方法及WinBUGS軟件的發(fā)展和應(yīng)用,使原先異常復(fù)雜的高維計(jì)算問題迎刃而解,很大程度上方便了參數(shù)的后驗(yàn)推斷。目前,先驗(yàn)分布的確定依據(jù)只是一些準(zhǔn)則,沒有可操作的完整理論。6.3.2算法介紹層次貝葉斯層次貝葉斯是一種從認(rèn)知層面上認(rèn)識及評價(jià)模型的算法,它基于貝葉斯統(tǒng)計(jì)推理,具有其所有優(yōu)勢,適用于建立富有層次結(jié)構(gòu)性的模型,它允許多個(gè)參數(shù)之間的復(fù)雜關(guān)系在不同層次上得到分離,從而把一個(gè)復(fù)雜估計(jì)問題分解為簡單估計(jì)問題,只依賴每個(gè)參數(shù)的條件分布,有著較好的推廣性和普適性。在層次貝葉斯算法中,部分參數(shù)是由其他模型參數(shù)決定的。然而,由于計(jì)算及推理上的復(fù)雜性,層次模型一直以來未被推廣。但是,隨著MCMC、拉普拉斯近似算法及變分法等近似推理方法逐漸成熟,層次模型近年來在機(jī)器學(xué)習(xí)和模式識別領(lǐng)域有了較快發(fā)展,成為一種處理復(fù)雜數(shù)據(jù)的重要手段。與其他貝葉斯算法不同,層次貝葉斯算法考慮了空間關(guān)聯(lián)性。概括起來,該算法有以下兩個(gè)特點(diǎn)。036.3.2算法介紹(1)概率函數(shù)f(x,θ)中的未知參數(shù)。是服從某種分布的隨機(jī)變量,并且θ的先驗(yàn)分布函數(shù)中的參數(shù)也被看作隨機(jī)變量。例如,θ服從以α和β為參數(shù)的分布,而參數(shù)α和β依然被看作隨機(jī)變量,且它們都服從正態(tài)分布圖6.7很好地反映了層次貝葉斯算法的特點(diǎn),即除了第一層參數(shù)。為隨機(jī)變量,第二層參數(shù)α和β也為隨機(jī)變量,因此稱為層次貝葉斯算法。6.3.2算法介紹(2)模型的參數(shù)在每個(gè)子區(qū)域內(nèi)是變化的,同時(shí),該參數(shù)受鄰近區(qū)域的影響。因此,考慮到對象的空間自相關(guān)性,某子區(qū)域的參數(shù)估計(jì)值都會受到鄰近子區(qū)域的影響。圖6.8給出了層次貝葉斯算法的層次結(jié)構(gòu)模型,將觀測的馬爾可夫決策過程集合分解成許多類別,每個(gè)類別和一個(gè)參數(shù)矢量相關(guān)聯(lián),這些參數(shù)矢量的分布在己描述的個(gè)體馬爾可夫決策過程中定義,描述馬爾可夫決策即對它的遷移模型和獎(jiǎng)賞值指定參數(shù)。因此,類別的分布代表了參數(shù)值的先驗(yàn)不確定性。6.3.2算法介紹構(gòu)造這個(gè)層次結(jié)構(gòu)模型很簡單,具體分為如下幾個(gè)步驟:首先,從類別先驗(yàn)分布中采樣馬爾可夫決策過程的一個(gè)類別:接著,從類別分布中采樣一個(gè)新的馬爾可夫決策過程:最后,得到智能體執(zhí)行動(dòng)作時(shí)產(chǎn)生的與采樣的馬爾可夫決策過程相關(guān)的觀測數(shù)據(jù)。利用油利克雷過程(DP)來描述這個(gè)模型,無限維混合模型如圖6.8所示。6.3.2算法介紹若,樣本θ~G,則對測度空間的有限劃分的后驗(yàn)分布也是DP,觀測數(shù)據(jù)只影響其所在劃分區(qū)域的分布參數(shù)。N表示有任務(wù)的個(gè)數(shù),對于每個(gè)任務(wù),智能體有R個(gè)觀測值。DP的每個(gè)采樣本身就是一個(gè)隨機(jī)過程,具有共韌性。類別的分布由參數(shù)

得到,分布是類別的超先驗(yàn),λ是分布參數(shù),它是智能體機(jī)構(gòu)的高級知識。DP的這個(gè)特點(diǎn)允許模型通過選擇類別子集來適應(yīng)類別的數(shù)量,而這些子集產(chǎn)生于可計(jì)數(shù)的無限集合中,可以很好地描述觀測值。類別分布用來表示馬爾可夫決策過程中集合的特定知識,類別參數(shù)

和每個(gè)馬爾可夫決策過程的隨機(jī)變量

相關(guān)聯(lián),組成有效的類別分布集合,表明哪個(gè)類別分布和給定的馬爾可夫決策過程相關(guān)。在每個(gè)馬爾可夫決策過程中,智能體允許R個(gè)觀測值相互作用,以產(chǎn)生觀測數(shù)據(jù)。6.3.2算法介紹值得注意的是,由個(gè)體馬爾可夫決策過程產(chǎn)生的觀測數(shù)據(jù)在馬爾可夫決策過程之間不共事,以確保每個(gè)任務(wù)成功地學(xué)習(xí)馬爾可夫決策過程特定的模型參數(shù)。最終,DP執(zhí)行“富有的變得更富有”的策略將數(shù)據(jù)分配到不同類別。參數(shù)α稱為集中參數(shù),表示為了增大數(shù)據(jù)集而引入新類別的概率,數(shù)值α越大,表明新類別加入的可能性越大:數(shù)值α越小

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論