版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
第八章支持向量機(jī)支持向量機(jī)SVM(SupportVectorMachines)是由Vanpik領(lǐng)導(dǎo)的AT&TBell實(shí)驗(yàn)室研究小組在1963年提出的一種新的非常有潛力的分類技術(shù),SVM是一種基于統(tǒng)計(jì)學(xué)習(xí)理論的模式識(shí)別方法,主要應(yīng)用于模式識(shí)別領(lǐng)域。
第八章支持向量機(jī)支持向量機(jī)SVM(SupportV
發(fā)展:90年代,由于統(tǒng)計(jì)學(xué)習(xí)理論的實(shí)現(xiàn)和神經(jīng)網(wǎng)絡(luò)等較新興的機(jī)器學(xué)習(xí)方法的研究遇到一些重要的困難,如,如何確定網(wǎng)絡(luò)結(jié)構(gòu)的問題、過學(xué)習(xí)與欠學(xué)習(xí)問題、局部極小點(diǎn)問題等,使得SVM迅速發(fā)展和完善。SVM優(yōu)勢:小樣本、非線性及高維模式識(shí)別問題,函數(shù)擬合等其他機(jī)器學(xué)習(xí)問題運(yùn)用:模式識(shí)別、回歸分析、函數(shù)估計(jì)、時(shí)間序列預(yù)測等領(lǐng)域,文本識(shí)別、手寫字體識(shí)別、人臉圖像識(shí)別、基因分類、時(shí)間序列預(yù)測等。發(fā)展:90年代,由于統(tǒng)計(jì)學(xué)習(xí)理論的實(shí)現(xiàn)和神經(jīng)網(wǎng)絡(luò)等較新興的第八章支持向量機(jī)8.1概述8.2統(tǒng)計(jì)學(xué)習(xí)理論
8.3支持向量機(jī)(SVM)8.4核函數(shù)8.5SVM的算法及多類SVM8.6SVM的應(yīng)用現(xiàn)狀8.7小結(jié)第八章支持向量機(jī)8.1概述8.1概述基于數(shù)據(jù)的機(jī)器學(xué)習(xí):從觀測數(shù)據(jù)(樣本)出發(fā)尋找數(shù)據(jù)中的模式和數(shù)據(jù)中的函數(shù)依賴規(guī)律,利用這些模式和函數(shù)依賴對(duì)未來數(shù)據(jù)或無法觀測的數(shù)據(jù)進(jìn)行分類、識(shí)別和預(yù)測。分為三種:一、經(jīng)典的(參數(shù))統(tǒng)計(jì)估計(jì)算法----參數(shù)的相關(guān)形式是已知的,訓(xùn)練樣本用來估計(jì)參數(shù)的值。局限性:1.需要已知樣本分布形式,2.假設(shè)樣本數(shù)目趨于無窮大,但在實(shí)際問題中,樣本數(shù)往往是有限的。8.1概述基于數(shù)據(jù)的機(jī)器學(xué)習(xí):從觀測數(shù)據(jù)(樣本)出發(fā)尋找數(shù)
二、人工神經(jīng)網(wǎng)絡(luò)(ANN)----利用已知樣本建立非線性模型,克服了傳統(tǒng)參數(shù)估計(jì)方法的困難。應(yīng)用廣泛,但是現(xiàn)在的神經(jīng)網(wǎng)絡(luò)技術(shù)研究理論基石不足,有較大的經(jīng)驗(yàn)成分,在技術(shù)上仍存在一些不易解決的問題。三、支持向量機(jī)(SVM),——統(tǒng)計(jì)學(xué)習(xí)理論。SVM是統(tǒng)計(jì)學(xué)習(xí)理論中最年輕的內(nèi)容,也是最實(shí)用的部分,已經(jīng)成為神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)的研究熱點(diǎn)之一。二、人工神經(jīng)網(wǎng)絡(luò)(ANN)----利用已知樣本建立非線性模支持向量機(jī)的基本思想訓(xùn)練數(shù)據(jù)集非線性地映射到一個(gè)高維特征空間目的:把在輸入空間中的線性不可分?jǐn)?shù)據(jù)集映射到高維特征空間后變?yōu)槭蔷€性可分的數(shù)據(jù)集在特征空間建立一個(gè)具有最大隔離距離的最優(yōu)分隔超平面支持向量機(jī)的基本思想訓(xùn)練數(shù)據(jù)集非線性地映射到一個(gè)高維特征空間
存在多個(gè)分類超平面可以把兩個(gè)類分離開來,但是只有一個(gè)是最優(yōu)分類超平面,它與兩個(gè)類之間最近向量的距離最大。支持向量機(jī)的目的:找出最優(yōu)的分類超平面。
8.2統(tǒng)計(jì)學(xué)習(xí)理論統(tǒng)計(jì)學(xué)習(xí)理論誕生于20世紀(jì)60~70年代,主要?jiǎng)?chuàng)立者:Vladimir
N.
Vapnik,90年代中期發(fā)展比較成熟,受到世界機(jī)器學(xué)習(xí)界的廣泛重視。統(tǒng)計(jì)學(xué)習(xí)理論:一種專門研究小樣本情況下機(jī)器學(xué)習(xí)規(guī)律的理論。針對(duì)小樣本統(tǒng)計(jì)問題建立了一套新的理論體系,該體系下的統(tǒng)計(jì)推理規(guī)則不僅考慮了對(duì)漸近性能的要求,而且追求在現(xiàn)有有限信息的條件下得到最優(yōu)結(jié)果。8.2統(tǒng)計(jì)學(xué)習(xí)理論統(tǒng)計(jì)學(xué)習(xí)理論誕生于20世紀(jì)60~70年代8.2.1學(xué)習(xí)問題的表示樣本學(xué)習(xí)的一般模型產(chǎn)生器(G):產(chǎn)生隨機(jī)向量,它們是從固定但未知的概率分布函數(shù)F(x)中獨(dú)立抽取的。訓(xùn)練器(S):對(duì)每個(gè)輸入向量x返回一個(gè)輸出值y,產(chǎn)生輸出的根據(jù)是同樣固定但未知的條件分布函數(shù)F(y|x)。學(xué)習(xí)機(jī)器(LM):它能夠?qū)崿F(xiàn)一定的函數(shù)集,其中∧是參數(shù)集合。在學(xué)習(xí)過程中,學(xué)習(xí)機(jī)器LM觀察數(shù)據(jù)對(duì)(x,y)。在訓(xùn)練之后,學(xué)習(xí)機(jī)器必須對(duì)任意輸入x,使之接近訓(xùn)練器的響應(yīng)y。8.2.1學(xué)習(xí)問題的表示樣本學(xué)習(xí)的一般模型8.2.2期望風(fēng)險(xiǎn)和經(jīng)驗(yàn)風(fēng)險(xiǎn)給定輸入x下訓(xùn)練器響應(yīng)y與學(xué)習(xí)機(jī)器給出的響應(yīng)之間的損失記作就是風(fēng)險(xiǎn)泛函,即預(yù)測的期望(實(shí)際)風(fēng)險(xiǎn)。稱為經(jīng)驗(yàn)風(fēng)險(xiǎn)。8.2.2期望風(fēng)險(xiǎn)和經(jīng)驗(yàn)風(fēng)險(xiǎn)給定輸入x下訓(xùn)練器響應(yīng)y與學(xué)習(xí)8.3支持向量機(jī)(SVM)一種經(jīng)典的二分類模型,基本模型定義為特征空間中最大間隔的線性分類器,其學(xué)習(xí)的優(yōu)化目標(biāo)便是間隔最大化,因此支持向量機(jī)本身可以轉(zhuǎn)化為一個(gè)凸二次規(guī)劃求解的問題。8.3支持向量機(jī)(SVM)一種經(jīng)典的二分類模型,基本模型定函數(shù)間隔與幾何間隔對(duì)于二分類學(xué)習(xí),假設(shè)數(shù)據(jù)是線性可分的分類學(xué)習(xí):找到一個(gè)合適的超平面,該超平面能夠?qū)⒉煌悇e的樣本分開類似二維平面使用ax+by+c=0來表示,超平面實(shí)際上表示的就是高維的平面,如下圖所示:函數(shù)間隔與幾何間隔對(duì)于二分類學(xué)習(xí),假設(shè)數(shù)據(jù)是線性可分的8.3.1線性可分支持向量機(jī)劃分超平面:其中,為法向量。樣本空間中任意點(diǎn)x到超平面(w,b)的距離寫為:8.3.1線性可分支持向量機(jī)劃分超平面:8.3.1線性可分支持向量機(jī)假設(shè)超平面能正確分類,則:兩個(gè)異類支持向量到超平面的距離之和為:8.3.1線性可分支持向量機(jī)假設(shè)超平面能正確分類,則:8.3.1線性可分支持向量機(jī)欲找最大間隔的劃分超平面,即找滿足約束的參數(shù)w,b使得最大,即:8.3.1線性可分支持向量機(jī)欲找最大間隔的劃分超平面,即找8.3.1線性可分支持向量機(jī)等價(jià)于:8.3.1線性可分支持向量機(jī)等價(jià)于:8.3.1對(duì)偶問題8.3.1對(duì)偶問題支持向量機(jī)問題可以等價(jià)為求解下面的二次規(guī)劃問題:最小化泛函:約束條件為不等式類型該問題的解是由下面的拉格朗日泛函的鞍點(diǎn)給出的:其中為拉格朗日乘子。 問題的對(duì)偶問題為:最大化泛函 約束條件為: 這樣原問題的解為:
支持向量機(jī)問題可以等價(jià)為求解下面的二次規(guī)劃問題:由拉格朗日可得到原問題的Karush-Kuhn-Tucker(KKT)條件:根據(jù)優(yōu)化理論,是原問題的解當(dāng)且僅當(dāng)滿足KKT條件。在對(duì)偶問題或KKT條件中,每個(gè)訓(xùn)練數(shù)據(jù)都對(duì)應(yīng)一個(gè)拉格朗日乘子,其中與對(duì)應(yīng)的數(shù)據(jù)成為支持向量。
由拉格朗日可得到原問題的Karush-Kuhn-Tucker利用任一支持向量和KKT條件,可求出
一般情況下,為了準(zhǔn)確,常求出多個(gè)b值,然后取平均值,或者
其中,用表示屬于第一類的任一支持向量,用表示屬于第二類的任一支持向量。最后的最優(yōu)超平面方程:
最終完成學(xué)習(xí)過程。
利用任一支持向量和KKT條件8.3.2線性不可分與軟間隔最大化首先我們引入松弛變量來表示經(jīng)驗(yàn)風(fēng)險(xiǎn),將原約束條件變?yōu)椋?/p>
這樣,樣本數(shù)據(jù)的經(jīng)驗(yàn)風(fēng)險(xiǎn)在一定程度上可以表示為:
其中參數(shù),代表經(jīng)驗(yàn)風(fēng)險(xiǎn)的某種度量方式。給定樣本數(shù)據(jù)后,我們在容許結(jié)構(gòu)的某個(gè)子集下最小化經(jīng)驗(yàn)風(fēng)險(xiǎn),問題可以描述為:最小化泛函:約束條件為:8.3.2線性不可分與軟間隔最大化首先我們引入松弛變量這個(gè)問題可以等價(jià)為在約束條件下最小化泛函:這里的C是一個(gè)給定的值。原問題的對(duì)偶形式為:只是約束條件變?yōu)椋?/p>
這樣原問題的解為:
這個(gè)問題可以等價(jià)為在約束條件下最小化泛函:8.4核函數(shù)支持向量機(jī)的關(guān)鍵在于核函數(shù)。低維空間向量集通常難于劃分,解決的方法是將它們映射到高維空間,但這個(gè)辦法帶來的困難就是計(jì)算復(fù)雜度的增加,而核函數(shù)正好巧妙地解決了這個(gè)問題。只要選用適當(dāng)?shù)暮撕瘮?shù),我們就可以得到高維空間的分類函數(shù)。在SVM理論中,采用不同的核函數(shù)將導(dǎo)致不同的SVM算法。8.4核函數(shù)支持向量機(jī)的關(guān)鍵在于核函數(shù)。8.4核函數(shù)首先定義映射,是輸入空間,H是高維內(nèi)積空間,稱為特征空間,稱為特征映射,然后在H中構(gòu)造最優(yōu)超平面。在特征空間中的學(xué)習(xí)過程同前面一樣,對(duì)偶問題為:約束條件不變:8.4核函數(shù)首先定義映射,核函數(shù)的思想:在輸入空間的變量直接計(jì)算特征空間中的內(nèi)積,即其中,屬于輸入空間,函數(shù)即為核函數(shù)。這樣,只要定義了核函數(shù),就不必真的進(jìn)行非線性變換,更沒有必要知道采用的非線性變換的形式,所以我們只要構(gòu)造輸入空間的一個(gè)核函數(shù)即可。
核函數(shù):核函數(shù)的思想:在輸入空間的變量直接計(jì)算特征空間中的定理8.6對(duì)于任意的對(duì)稱函數(shù),它是某個(gè)特征空間的內(nèi)積運(yùn)算的充分必要條件是,對(duì)于任意的且,有
事實(shí)上這一條件并不難滿足。這樣我們就可以得到輸入空間中的非線性決策函數(shù)
它等價(jià)于在高維特征空間中的線性決策函數(shù)。
定理8.6對(duì)于任意的對(duì)稱函數(shù)8.4.2核函數(shù)的分類⑴多項(xiàng)式核函數(shù)
所得到的是d階多項(xiàng)式分類器:
⑵徑向基函數(shù) 經(jīng)典的徑向基函數(shù)的判別函數(shù)為:
最通常采用的核函數(shù)為高斯函數(shù):8.4.2核函數(shù)的分類⑴多項(xiàng)式核函數(shù)⑶多層感知機(jī)SVM采用Sigmoid函數(shù)作為內(nèi)積,這時(shí)就實(shí)現(xiàn)了包含一個(gè)隱層的多層感知機(jī),隱層節(jié)點(diǎn)數(shù)目由算法自動(dòng)確定。滿足mercer條件的Sigmoid函數(shù)為:
⑶多層感知機(jī)8.5SVM的算法及多類SVM目前SVM的訓(xùn)練算法一般采用循環(huán)迭代解決對(duì)偶尋優(yōu)問題:將原問題分解成為若干子問題,按照某種迭代策略,通過反復(fù)求解子問題,最終使結(jié)果收斂到原問題的最優(yōu)解。根據(jù)子問題的劃分和迭代策略的不同,大致可以分為:⑴塊算法ChunkingAlgorithm:考慮到去掉Lagrange乘子等于零的訓(xùn)練樣本不會(huì)影響原問題的解,采用選擇一部分樣本構(gòu)成工作樣本集進(jìn)行訓(xùn)練,剔除其中的非支持向量,并用訓(xùn)練結(jié)果對(duì)剩余樣本進(jìn)行檢驗(yàn),將不符合KKT條件的樣本與此次結(jié)果的支持向量合并成為一個(gè)新的工作樣本集,然后重新訓(xùn)練,如此重復(fù)下去直到獲得最優(yōu)結(jié)果。8.5SVM的算法及多類SVM目前SVM的訓(xùn)練算法一般采用
Chunking算法將矩陣規(guī)模從訓(xùn)練樣本數(shù)的平方減少到具有非零Lagrange乘數(shù)的樣本數(shù)的平方,在很大程度上降低了訓(xùn)練過程對(duì)存儲(chǔ)容量的要求。Chunking算法能夠大大提高訓(xùn)練速度,尤其是當(dāng)支持向量的數(shù)目遠(yuǎn)遠(yuǎn)小于訓(xùn)練樣本的數(shù)目時(shí)。然而,如果支持向量個(gè)數(shù)比較多,隨著算法迭代次數(shù)的增多,所選的塊也會(huì)越來越大,算法的訓(xùn)練速度依舊會(huì)變得十分緩慢。Chunking算法將矩陣規(guī)模從訓(xùn)練樣本數(shù)的平方減少到具有
(2)分解算法(DecompositionAlgorithm)分解算法最早由Osuna等人提出,是目前有效解決大規(guī)模問題的主要方法。分解算法將二次規(guī)劃問題分解成一系列規(guī)模較小的二次規(guī)劃子問題,進(jìn)行迭代求解。在每次迭代中,選取拉格朗日乘子分量的一個(gè)子集做為工作集,利用傳統(tǒng)優(yōu)化算法求解一個(gè)二次規(guī)劃的子問題。該算法的關(guān)鍵在于選擇一種最優(yōu)的工作集選擇算法,但是Osuna在工作集的選取中采用了隨機(jī)的方法,因此限制了算法的收斂速度。Joachims在Osuna分解算法的基礎(chǔ)上,關(guān)于工作集的選擇做了重要改進(jìn)。其主要思想是,如果存在不滿足KTT條件的樣本,利用最速下降法,在最速下降方向中存在個(gè)樣本,然后以這個(gè)樣本構(gòu)成工作集,在此工作集上解決QP問題,直到所有樣本滿足KTT條件。Joachims的改進(jìn)大幅度提高了分解算法的收斂速度,并且他利用這些方法實(shí)現(xiàn)了SVMlight算法。(2)分解算法(DecompositionAlgorit
由JohnC.Platt提出的序列最小優(yōu)化(SequentialMinimalOptimization,SMO)算法可以說是Osuna分解算法的一個(gè)特例,工作集中只有2個(gè)樣本,其優(yōu)點(diǎn)是針對(duì)2個(gè)樣本的二次規(guī)劃問題可以有解析解的形式,從而避免了多樣本情況下的數(shù)值解不穩(wěn)定及耗時(shí)問題,同時(shí)也不需要大的矩陣存儲(chǔ)空間,特別適合稀疏樣本。其工作集的選擇不是傳統(tǒng)的最陡下降法,而是啟發(fā)式。通過兩個(gè)嵌套的循環(huán)來尋找待優(yōu)化的樣本,然后在內(nèi)環(huán)中選擇另一個(gè)樣本,完成一次優(yōu)化,再循環(huán),進(jìn)行下一次優(yōu)化,直到全部樣本都滿足最優(yōu)條件。SMO算法主要耗時(shí)在最優(yōu)條件的判斷上,所以應(yīng)尋找最合理即計(jì)算代價(jià)最低的最優(yōu)條件判別式。由JohnC.Platt提出的序列最小優(yōu)化((3)增量學(xué)習(xí)增量學(xué)習(xí)是機(jī)器學(xué)習(xí)系統(tǒng)在處理新增樣本時(shí),能夠只對(duì)原學(xué)習(xí)結(jié)果中與新樣本有關(guān)的部分進(jìn)行增加修改或刪除操作,與之無關(guān)的部分則不被觸及。增量訓(xùn)練算法的一個(gè)突出特點(diǎn)是支持向量機(jī)的學(xué)習(xí)不是一次離線進(jìn)行的,而是一個(gè)數(shù)據(jù)逐一加入反復(fù)優(yōu)化的過程。(3)增量學(xué)習(xí)新型SVM(1)粒度支持向量機(jī)GSVMGSVM由TangYC于2004年提出的,主要思想:通過常用的粒度劃分方法構(gòu)建粒度空間獲得一系列信息粒,然后在每個(gè)信息粒上進(jìn)行學(xué)習(xí),最后通過聚合信息粒上的信息(或數(shù)據(jù)、規(guī)則知識(shí)、屬性等)獲得最終的支持向量機(jī)決策函數(shù)。
這一學(xué)習(xí)機(jī)制通過數(shù)據(jù)的?;梢詫⒁粋€(gè)線性不可分問題轉(zhuǎn)化為一系列線性可分問題,從而獲得多個(gè)決策函數(shù);同時(shí),這一學(xué)習(xí)機(jī)制也使得數(shù)據(jù)的泛化性能增強(qiáng),即可在SVM的訓(xùn)練中得到間隔更寬的超平面。新型SVM(1)粒度支持向量機(jī)GSVM(2)模糊支持向量機(jī)FSVM為了克服噪聲和野值點(diǎn)對(duì)支持向量機(jī)的影響,臺(tái)灣學(xué)者ChunfuLin和ShengdeWang將模糊數(shù)學(xué)和支持向量機(jī)相結(jié)合,提出了模糊支持向量機(jī),主要用來處理訓(xùn)練樣本中的噪聲數(shù)據(jù)。主要思想:針對(duì)支持向量機(jī)對(duì)訓(xùn)練樣本內(nèi)的噪音和孤立點(diǎn)的敏感性,在訓(xùn)練樣本集中增加一項(xiàng):隸屬度,并賦予支持向量較高的隸屬度,而非支持向量及噪聲野值點(diǎn)賦予較小的隸屬度,從而降低了非支持向量、噪聲和野值點(diǎn)對(duì)最優(yōu)超平面的影響。(2)模糊支持向量機(jī)FSVM為了克服噪聲和野值點(diǎn)對(duì)支持向量機(jī)(3)孿生支持向量機(jī)TSVMs2007年,Jayadeva和KhemchandaniR提出了一種二值數(shù)據(jù)的分類器——孿生支持向量機(jī)(又稱雙分界面支持向量機(jī))TWSVMs在形式上類似于傳統(tǒng)的支持向量機(jī),具有傳統(tǒng)支持向量機(jī)的優(yōu)點(diǎn),且對(duì)大規(guī)模數(shù)據(jù)具有更好的處理能力。TWSVMs為兩個(gè)類各自得到一個(gè)分類平面,屬于每個(gè)類的數(shù)據(jù)盡量圍繞在與之相對(duì)應(yīng)的分類平面周圍,然后TWSVMs通過優(yōu)化一對(duì)分類平面來構(gòu)建分類超平面。即:TWSVMs解決一對(duì)QP問題,而SVM則是解決一個(gè)QP問題,但是在TWSVMs中,其中一個(gè)類的數(shù)據(jù)要作為另一個(gè)QP問題的約束條件,反之亦然。(3)孿生支持向量機(jī)TSVMs2007年,Jayadeva8.5.2多類問題中的SVM類模式識(shí)別問題是為個(gè)樣本構(gòu)成一個(gè)決策函數(shù)。由于SVM是解決兩類問題的有效方法,因此用SVM解多類問題的方法通常將問題轉(zhuǎn)化為兩類問題,然后對(duì)結(jié)果進(jìn)行處理。一般常用的方法有以下幾種:⑴One-against-the-rest方法:在第類和其他類之間構(gòu)建超平面。⑵One-against-one方法:為任意兩個(gè)類構(gòu)建超平面,共需個(gè)。⑶K-classSVM:同時(shí)為所有的類構(gòu)造一個(gè)分類超平面。8.5.2多類問題中的SVM類模式識(shí)別問題是為8.6SVM的應(yīng)用現(xiàn)狀⑴人臉檢測、驗(yàn)證和識(shí)別Osuna最早將SVM應(yīng)用于人臉檢測,并取得了較好的效果。其方法是直接訓(xùn)練非線性SVM分類器完成人臉與非人臉的分類。大量實(shí)驗(yàn)結(jié)果表明這種方法不僅具有較高的檢測率和較低的誤檢率,而且具有較快的速度。⑵說話人/語音識(shí)別
建立SVM和HMM(隱式馬爾可夫模型)的混合模型。HMM適合處理連續(xù)信號(hào),而SVM適合于分類問題;HMM的結(jié)果反映了同類樣本的相似度,而SVM的輸出結(jié)果則體現(xiàn)了異類樣本間的差異。
8.6SVM的應(yīng)用現(xiàn)狀⑴人臉檢測、驗(yàn)證8.6SVM的應(yīng)用現(xiàn)狀⑶文字/手寫體識(shí)別貝爾實(shí)驗(yàn)室對(duì)美國郵政手寫數(shù)字庫進(jìn)行的實(shí)驗(yàn),人工識(shí)別平均錯(cuò)誤率為2.5%,專門針對(duì)該特定問題設(shè)計(jì)的5層神經(jīng)網(wǎng)絡(luò)錯(cuò)誤率為5.1%(其中利用率大量先驗(yàn)知識(shí)),而用3種SVM方法(采用3種核函數(shù))得到的錯(cuò)誤率分別為4.0%、4.1%和4.2%,且是直接采用16×16的字符點(diǎn)陣作為輸入,表明了SVM的優(yōu)越性能。
8.6SVM的應(yīng)用現(xiàn)狀⑶文字/手寫體識(shí)別8.6SVM的應(yīng)用現(xiàn)狀
⑷圖像處理:a圖像過濾,支持向量機(jī)分類和最近鄰方法校驗(yàn)的多層系圖像處理框架,達(dá)到85%以上的準(zhǔn)確率。b視頻字幕提取,首先將原始圖像幀分割為N×N的子塊,提取每個(gè)子塊的灰度特征;然后使用預(yù)先訓(xùn)練好的SVM分類機(jī)進(jìn)行字幕子塊和非字幕子塊的分類;最后結(jié)合金字塔模型和后期處理過程,實(shí)現(xiàn)視頻圖像字幕區(qū)域的自動(dòng)定位提取。
c圖像分類和檢索,以SVM為分類器,在每次反饋中對(duì)用戶標(biāo)記的正例和反例樣本進(jìn)行學(xué)習(xí),并根據(jù)學(xué)習(xí)所得的模型進(jìn)行檢索,使用由9918幅圖像組成的圖像庫進(jìn)行實(shí)驗(yàn),結(jié)果表明,在有限訓(xùn)練樣本情況下具有良好的泛化能力。8.6SVM的應(yīng)用現(xiàn)狀⑷圖像處理:8.6SVM的應(yīng)用現(xiàn)狀
目前,國際上關(guān)于SVM理論的討論和深入地研究逐漸廣泛,我國國內(nèi)在此領(lǐng)域的研究尚處在萌芽狀態(tài)。我們需要及時(shí)學(xué)習(xí)掌握有關(guān)的理論知識(shí),開展有效的研究工作,使我們在這個(gè)具有重要意義的領(lǐng)域中盡快趕上國際水平,跟上國際發(fā)展步伐。8.6SVM的應(yīng)用現(xiàn)狀目前,國際上關(guān)于SVM8.7小結(jié)SVM是基于統(tǒng)計(jì)學(xué)習(xí)理論中的經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化原則的一種機(jī)器學(xué)習(xí),解決了對(duì)非線性函數(shù)求解超平面的問題。SVM可以有效地解決小樣本、非線性及高維模式識(shí)別問題。SVM用于模式分類的觀點(diǎn)可以簡單地闡述為:首先,無論問題是否為線性的,選擇相應(yīng)的核函數(shù),均可將輸入向量映射到一個(gè)高維空間;其次,用最優(yōu)化理論方法尋求最優(yōu)超平面將二類分開?,F(xiàn)在,統(tǒng)計(jì)學(xué)習(xí)理論和SVM方法尚處在發(fā)展階段,很多方面還不完善,許多理論在算法中尚未實(shí)現(xiàn);SVM算法的某些理論解釋并非完美,SVM的應(yīng)用目前僅是在有限的實(shí)驗(yàn)中觀察到的現(xiàn)象,期待著理論證明。8.7小結(jié)SVM是基于統(tǒng)計(jì)學(xué)習(xí)理論中的經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化原則的習(xí)題1.比較經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化和結(jié)構(gòu)風(fēng)險(xiǎn)最小化的原理。2.描述支持向量機(jī)的基本思想和數(shù)學(xué)模型。3.簡述支持向量機(jī)解決非線性可分問題的基本思想。4.描述支持向量機(jī)的核函數(shù)構(gòu)造方法。習(xí)題1.比較經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化和結(jié)構(gòu)風(fēng)險(xiǎn)最小化的原理。第八章支持向量機(jī)支持向量機(jī)SVM(SupportVectorMachines)是由Vanpik領(lǐng)導(dǎo)的AT&TBell實(shí)驗(yàn)室研究小組在1963年提出的一種新的非常有潛力的分類技術(shù),SVM是一種基于統(tǒng)計(jì)學(xué)習(xí)理論的模式識(shí)別方法,主要應(yīng)用于模式識(shí)別領(lǐng)域。
第八章支持向量機(jī)支持向量機(jī)SVM(SupportV
發(fā)展:90年代,由于統(tǒng)計(jì)學(xué)習(xí)理論的實(shí)現(xiàn)和神經(jīng)網(wǎng)絡(luò)等較新興的機(jī)器學(xué)習(xí)方法的研究遇到一些重要的困難,如,如何確定網(wǎng)絡(luò)結(jié)構(gòu)的問題、過學(xué)習(xí)與欠學(xué)習(xí)問題、局部極小點(diǎn)問題等,使得SVM迅速發(fā)展和完善。SVM優(yōu)勢:小樣本、非線性及高維模式識(shí)別問題,函數(shù)擬合等其他機(jī)器學(xué)習(xí)問題運(yùn)用:模式識(shí)別、回歸分析、函數(shù)估計(jì)、時(shí)間序列預(yù)測等領(lǐng)域,文本識(shí)別、手寫字體識(shí)別、人臉圖像識(shí)別、基因分類、時(shí)間序列預(yù)測等。發(fā)展:90年代,由于統(tǒng)計(jì)學(xué)習(xí)理論的實(shí)現(xiàn)和神經(jīng)網(wǎng)絡(luò)等較新興的第八章支持向量機(jī)8.1概述8.2統(tǒng)計(jì)學(xué)習(xí)理論
8.3支持向量機(jī)(SVM)8.4核函數(shù)8.5SVM的算法及多類SVM8.6SVM的應(yīng)用現(xiàn)狀8.7小結(jié)第八章支持向量機(jī)8.1概述8.1概述基于數(shù)據(jù)的機(jī)器學(xué)習(xí):從觀測數(shù)據(jù)(樣本)出發(fā)尋找數(shù)據(jù)中的模式和數(shù)據(jù)中的函數(shù)依賴規(guī)律,利用這些模式和函數(shù)依賴對(duì)未來數(shù)據(jù)或無法觀測的數(shù)據(jù)進(jìn)行分類、識(shí)別和預(yù)測。分為三種:一、經(jīng)典的(參數(shù))統(tǒng)計(jì)估計(jì)算法----參數(shù)的相關(guān)形式是已知的,訓(xùn)練樣本用來估計(jì)參數(shù)的值。局限性:1.需要已知樣本分布形式,2.假設(shè)樣本數(shù)目趨于無窮大,但在實(shí)際問題中,樣本數(shù)往往是有限的。8.1概述基于數(shù)據(jù)的機(jī)器學(xué)習(xí):從觀測數(shù)據(jù)(樣本)出發(fā)尋找數(shù)
二、人工神經(jīng)網(wǎng)絡(luò)(ANN)----利用已知樣本建立非線性模型,克服了傳統(tǒng)參數(shù)估計(jì)方法的困難。應(yīng)用廣泛,但是現(xiàn)在的神經(jīng)網(wǎng)絡(luò)技術(shù)研究理論基石不足,有較大的經(jīng)驗(yàn)成分,在技術(shù)上仍存在一些不易解決的問題。三、支持向量機(jī)(SVM),——統(tǒng)計(jì)學(xué)習(xí)理論。SVM是統(tǒng)計(jì)學(xué)習(xí)理論中最年輕的內(nèi)容,也是最實(shí)用的部分,已經(jīng)成為神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)的研究熱點(diǎn)之一。二、人工神經(jīng)網(wǎng)絡(luò)(ANN)----利用已知樣本建立非線性模支持向量機(jī)的基本思想訓(xùn)練數(shù)據(jù)集非線性地映射到一個(gè)高維特征空間目的:把在輸入空間中的線性不可分?jǐn)?shù)據(jù)集映射到高維特征空間后變?yōu)槭蔷€性可分的數(shù)據(jù)集在特征空間建立一個(gè)具有最大隔離距離的最優(yōu)分隔超平面支持向量機(jī)的基本思想訓(xùn)練數(shù)據(jù)集非線性地映射到一個(gè)高維特征空間
存在多個(gè)分類超平面可以把兩個(gè)類分離開來,但是只有一個(gè)是最優(yōu)分類超平面,它與兩個(gè)類之間最近向量的距離最大。支持向量機(jī)的目的:找出最優(yōu)的分類超平面。
8.2統(tǒng)計(jì)學(xué)習(xí)理論統(tǒng)計(jì)學(xué)習(xí)理論誕生于20世紀(jì)60~70年代,主要?jiǎng)?chuàng)立者:Vladimir
N.
Vapnik,90年代中期發(fā)展比較成熟,受到世界機(jī)器學(xué)習(xí)界的廣泛重視。統(tǒng)計(jì)學(xué)習(xí)理論:一種專門研究小樣本情況下機(jī)器學(xué)習(xí)規(guī)律的理論。針對(duì)小樣本統(tǒng)計(jì)問題建立了一套新的理論體系,該體系下的統(tǒng)計(jì)推理規(guī)則不僅考慮了對(duì)漸近性能的要求,而且追求在現(xiàn)有有限信息的條件下得到最優(yōu)結(jié)果。8.2統(tǒng)計(jì)學(xué)習(xí)理論統(tǒng)計(jì)學(xué)習(xí)理論誕生于20世紀(jì)60~70年代8.2.1學(xué)習(xí)問題的表示樣本學(xué)習(xí)的一般模型產(chǎn)生器(G):產(chǎn)生隨機(jī)向量,它們是從固定但未知的概率分布函數(shù)F(x)中獨(dú)立抽取的。訓(xùn)練器(S):對(duì)每個(gè)輸入向量x返回一個(gè)輸出值y,產(chǎn)生輸出的根據(jù)是同樣固定但未知的條件分布函數(shù)F(y|x)。學(xué)習(xí)機(jī)器(LM):它能夠?qū)崿F(xiàn)一定的函數(shù)集,其中∧是參數(shù)集合。在學(xué)習(xí)過程中,學(xué)習(xí)機(jī)器LM觀察數(shù)據(jù)對(duì)(x,y)。在訓(xùn)練之后,學(xué)習(xí)機(jī)器必須對(duì)任意輸入x,使之接近訓(xùn)練器的響應(yīng)y。8.2.1學(xué)習(xí)問題的表示樣本學(xué)習(xí)的一般模型8.2.2期望風(fēng)險(xiǎn)和經(jīng)驗(yàn)風(fēng)險(xiǎn)給定輸入x下訓(xùn)練器響應(yīng)y與學(xué)習(xí)機(jī)器給出的響應(yīng)之間的損失記作就是風(fēng)險(xiǎn)泛函,即預(yù)測的期望(實(shí)際)風(fēng)險(xiǎn)。稱為經(jīng)驗(yàn)風(fēng)險(xiǎn)。8.2.2期望風(fēng)險(xiǎn)和經(jīng)驗(yàn)風(fēng)險(xiǎn)給定輸入x下訓(xùn)練器響應(yīng)y與學(xué)習(xí)8.3支持向量機(jī)(SVM)一種經(jīng)典的二分類模型,基本模型定義為特征空間中最大間隔的線性分類器,其學(xué)習(xí)的優(yōu)化目標(biāo)便是間隔最大化,因此支持向量機(jī)本身可以轉(zhuǎn)化為一個(gè)凸二次規(guī)劃求解的問題。8.3支持向量機(jī)(SVM)一種經(jīng)典的二分類模型,基本模型定函數(shù)間隔與幾何間隔對(duì)于二分類學(xué)習(xí),假設(shè)數(shù)據(jù)是線性可分的分類學(xué)習(xí):找到一個(gè)合適的超平面,該超平面能夠?qū)⒉煌悇e的樣本分開類似二維平面使用ax+by+c=0來表示,超平面實(shí)際上表示的就是高維的平面,如下圖所示:函數(shù)間隔與幾何間隔對(duì)于二分類學(xué)習(xí),假設(shè)數(shù)據(jù)是線性可分的8.3.1線性可分支持向量機(jī)劃分超平面:其中,為法向量。樣本空間中任意點(diǎn)x到超平面(w,b)的距離寫為:8.3.1線性可分支持向量機(jī)劃分超平面:8.3.1線性可分支持向量機(jī)假設(shè)超平面能正確分類,則:兩個(gè)異類支持向量到超平面的距離之和為:8.3.1線性可分支持向量機(jī)假設(shè)超平面能正確分類,則:8.3.1線性可分支持向量機(jī)欲找最大間隔的劃分超平面,即找滿足約束的參數(shù)w,b使得最大,即:8.3.1線性可分支持向量機(jī)欲找最大間隔的劃分超平面,即找8.3.1線性可分支持向量機(jī)等價(jià)于:8.3.1線性可分支持向量機(jī)等價(jià)于:8.3.1對(duì)偶問題8.3.1對(duì)偶問題支持向量機(jī)問題可以等價(jià)為求解下面的二次規(guī)劃問題:最小化泛函:約束條件為不等式類型該問題的解是由下面的拉格朗日泛函的鞍點(diǎn)給出的:其中為拉格朗日乘子。 問題的對(duì)偶問題為:最大化泛函 約束條件為: 這樣原問題的解為:
支持向量機(jī)問題可以等價(jià)為求解下面的二次規(guī)劃問題:由拉格朗日可得到原問題的Karush-Kuhn-Tucker(KKT)條件:根據(jù)優(yōu)化理論,是原問題的解當(dāng)且僅當(dāng)滿足KKT條件。在對(duì)偶問題或KKT條件中,每個(gè)訓(xùn)練數(shù)據(jù)都對(duì)應(yīng)一個(gè)拉格朗日乘子,其中與對(duì)應(yīng)的數(shù)據(jù)成為支持向量。
由拉格朗日可得到原問題的Karush-Kuhn-Tucker利用任一支持向量和KKT條件,可求出
一般情況下,為了準(zhǔn)確,常求出多個(gè)b值,然后取平均值,或者
其中,用表示屬于第一類的任一支持向量,用表示屬于第二類的任一支持向量。最后的最優(yōu)超平面方程:
最終完成學(xué)習(xí)過程。
利用任一支持向量和KKT條件8.3.2線性不可分與軟間隔最大化首先我們引入松弛變量來表示經(jīng)驗(yàn)風(fēng)險(xiǎn),將原約束條件變?yōu)椋?/p>
這樣,樣本數(shù)據(jù)的經(jīng)驗(yàn)風(fēng)險(xiǎn)在一定程度上可以表示為:
其中參數(shù),代表經(jīng)驗(yàn)風(fēng)險(xiǎn)的某種度量方式。給定樣本數(shù)據(jù)后,我們在容許結(jié)構(gòu)的某個(gè)子集下最小化經(jīng)驗(yàn)風(fēng)險(xiǎn),問題可以描述為:最小化泛函:約束條件為:8.3.2線性不可分與軟間隔最大化首先我們引入松弛變量這個(gè)問題可以等價(jià)為在約束條件下最小化泛函:這里的C是一個(gè)給定的值。原問題的對(duì)偶形式為:只是約束條件變?yōu)椋?/p>
這樣原問題的解為:
這個(gè)問題可以等價(jià)為在約束條件下最小化泛函:8.4核函數(shù)支持向量機(jī)的關(guān)鍵在于核函數(shù)。低維空間向量集通常難于劃分,解決的方法是將它們映射到高維空間,但這個(gè)辦法帶來的困難就是計(jì)算復(fù)雜度的增加,而核函數(shù)正好巧妙地解決了這個(gè)問題。只要選用適當(dāng)?shù)暮撕瘮?shù),我們就可以得到高維空間的分類函數(shù)。在SVM理論中,采用不同的核函數(shù)將導(dǎo)致不同的SVM算法。8.4核函數(shù)支持向量機(jī)的關(guān)鍵在于核函數(shù)。8.4核函數(shù)首先定義映射,是輸入空間,H是高維內(nèi)積空間,稱為特征空間,稱為特征映射,然后在H中構(gòu)造最優(yōu)超平面。在特征空間中的學(xué)習(xí)過程同前面一樣,對(duì)偶問題為:約束條件不變:8.4核函數(shù)首先定義映射,核函數(shù)的思想:在輸入空間的變量直接計(jì)算特征空間中的內(nèi)積,即其中,屬于輸入空間,函數(shù)即為核函數(shù)。這樣,只要定義了核函數(shù),就不必真的進(jìn)行非線性變換,更沒有必要知道采用的非線性變換的形式,所以我們只要構(gòu)造輸入空間的一個(gè)核函數(shù)即可。
核函數(shù):核函數(shù)的思想:在輸入空間的變量直接計(jì)算特征空間中的定理8.6對(duì)于任意的對(duì)稱函數(shù),它是某個(gè)特征空間的內(nèi)積運(yùn)算的充分必要條件是,對(duì)于任意的且,有
事實(shí)上這一條件并不難滿足。這樣我們就可以得到輸入空間中的非線性決策函數(shù)
它等價(jià)于在高維特征空間中的線性決策函數(shù)。
定理8.6對(duì)于任意的對(duì)稱函數(shù)8.4.2核函數(shù)的分類⑴多項(xiàng)式核函數(shù)
所得到的是d階多項(xiàng)式分類器:
⑵徑向基函數(shù) 經(jīng)典的徑向基函數(shù)的判別函數(shù)為:
最通常采用的核函數(shù)為高斯函數(shù):8.4.2核函數(shù)的分類⑴多項(xiàng)式核函數(shù)⑶多層感知機(jī)SVM采用Sigmoid函數(shù)作為內(nèi)積,這時(shí)就實(shí)現(xiàn)了包含一個(gè)隱層的多層感知機(jī),隱層節(jié)點(diǎn)數(shù)目由算法自動(dòng)確定。滿足mercer條件的Sigmoid函數(shù)為:
⑶多層感知機(jī)8.5SVM的算法及多類SVM目前SVM的訓(xùn)練算法一般采用循環(huán)迭代解決對(duì)偶尋優(yōu)問題:將原問題分解成為若干子問題,按照某種迭代策略,通過反復(fù)求解子問題,最終使結(jié)果收斂到原問題的最優(yōu)解。根據(jù)子問題的劃分和迭代策略的不同,大致可以分為:⑴塊算法ChunkingAlgorithm:考慮到去掉Lagrange乘子等于零的訓(xùn)練樣本不會(huì)影響原問題的解,采用選擇一部分樣本構(gòu)成工作樣本集進(jìn)行訓(xùn)練,剔除其中的非支持向量,并用訓(xùn)練結(jié)果對(duì)剩余樣本進(jìn)行檢驗(yàn),將不符合KKT條件的樣本與此次結(jié)果的支持向量合并成為一個(gè)新的工作樣本集,然后重新訓(xùn)練,如此重復(fù)下去直到獲得最優(yōu)結(jié)果。8.5SVM的算法及多類SVM目前SVM的訓(xùn)練算法一般采用
Chunking算法將矩陣規(guī)模從訓(xùn)練樣本數(shù)的平方減少到具有非零Lagrange乘數(shù)的樣本數(shù)的平方,在很大程度上降低了訓(xùn)練過程對(duì)存儲(chǔ)容量的要求。Chunking算法能夠大大提高訓(xùn)練速度,尤其是當(dāng)支持向量的數(shù)目遠(yuǎn)遠(yuǎn)小于訓(xùn)練樣本的數(shù)目時(shí)。然而,如果支持向量個(gè)數(shù)比較多,隨著算法迭代次數(shù)的增多,所選的塊也會(huì)越來越大,算法的訓(xùn)練速度依舊會(huì)變得十分緩慢。Chunking算法將矩陣規(guī)模從訓(xùn)練樣本數(shù)的平方減少到具有
(2)分解算法(DecompositionAlgorithm)分解算法最早由Osuna等人提出,是目前有效解決大規(guī)模問題的主要方法。分解算法將二次規(guī)劃問題分解成一系列規(guī)模較小的二次規(guī)劃子問題,進(jìn)行迭代求解。在每次迭代中,選取拉格朗日乘子分量的一個(gè)子集做為工作集,利用傳統(tǒng)優(yōu)化算法求解一個(gè)二次規(guī)劃的子問題。該算法的關(guān)鍵在于選擇一種最優(yōu)的工作集選擇算法,但是Osuna在工作集的選取中采用了隨機(jī)的方法,因此限制了算法的收斂速度。Joachims在Osuna分解算法的基礎(chǔ)上,關(guān)于工作集的選擇做了重要改進(jìn)。其主要思想是,如果存在不滿足KTT條件的樣本,利用最速下降法,在最速下降方向中存在個(gè)樣本,然后以這個(gè)樣本構(gòu)成工作集,在此工作集上解決QP問題,直到所有樣本滿足KTT條件。Joachims的改進(jìn)大幅度提高了分解算法的收斂速度,并且他利用這些方法實(shí)現(xiàn)了SVMlight算法。(2)分解算法(DecompositionAlgorit
由JohnC.Platt提出的序列最小優(yōu)化(SequentialMinimalOptimization,SMO)算法可以說是Osuna分解算法的一個(gè)特例,工作集中只有2個(gè)樣本,其優(yōu)點(diǎn)是針對(duì)2個(gè)樣本的二次規(guī)劃問題可以有解析解的形式,從而避免了多樣本情況下的數(shù)值解不穩(wěn)定及耗時(shí)問題,同時(shí)也不需要大的矩陣存儲(chǔ)空間,特別適合稀疏樣本。其工作集的選擇不是傳統(tǒng)的最陡下降法,而是啟發(fā)式。通過兩個(gè)嵌套的循環(huán)來尋找待優(yōu)化的樣本,然后在內(nèi)環(huán)中選擇另一個(gè)樣本,完成一次優(yōu)化,再循環(huán),進(jìn)行下一次優(yōu)化,直到全部樣本都滿足最優(yōu)條件。SMO算法主要耗時(shí)在最優(yōu)條件的判斷上,所以應(yīng)尋找最合理即計(jì)算代價(jià)最低的最優(yōu)條件判別式。由JohnC.Platt提出的序列最小優(yōu)化((3)增量學(xué)習(xí)增量學(xué)習(xí)是機(jī)器學(xué)習(xí)系統(tǒng)在處理新增樣本時(shí),能夠只對(duì)原學(xué)習(xí)結(jié)果中與新樣本有關(guān)的部分進(jìn)行增加修改或刪除操作,與之無關(guān)的部分則不被觸及。增量訓(xùn)練算法的一個(gè)突出特點(diǎn)是支持向量機(jī)的學(xué)習(xí)不是一次離線進(jìn)行的,而是一個(gè)數(shù)據(jù)逐一加入反復(fù)優(yōu)化的過程。(3)增量學(xué)習(xí)新型SVM(1)粒度支持向量機(jī)GSVMGSVM由TangYC于2004年提出的,主要思想:通過常用的粒度劃分方法構(gòu)建粒度空間獲得一系列信息粒,然后在每個(gè)信息粒上進(jìn)行學(xué)習(xí),最后通過聚合信息粒上的信息(或數(shù)據(jù)、規(guī)則知識(shí)、屬性等)獲得最終的支持向量機(jī)決策函數(shù)。
這一學(xué)習(xí)機(jī)制通過數(shù)據(jù)的?;梢詫⒁粋€(gè)線性不可分問題轉(zhuǎn)化為一系列線性可分問題,從而獲得多個(gè)決策函數(shù);同時(shí),這一學(xué)習(xí)機(jī)制也使得數(shù)據(jù)的泛化性能增強(qiáng),即可在SVM的訓(xùn)練中得到間隔更寬的超平面。新型SVM(1)粒度支持向量機(jī)GSVM(2)模糊支持向量機(jī)FSVM為了克服噪聲和野值點(diǎn)對(duì)支持向量機(jī)的影響,臺(tái)灣學(xué)者ChunfuLin和ShengdeWang將模糊數(shù)學(xué)和支持向量機(jī)相結(jié)合,提出了模糊支持向量機(jī),主要用來處理訓(xùn)練樣本中的噪聲數(shù)據(jù)。主要思想:針對(duì)支持向量機(jī)對(duì)訓(xùn)練樣本內(nèi)的噪音和孤立點(diǎn)的敏感性,在訓(xùn)練樣本集中增加一項(xiàng):隸屬度,并賦予支持向量較高的隸屬度,而非支持向量及噪聲野值點(diǎn)賦予較小的隸屬度,從而降低了非支持向量、噪聲和野值點(diǎn)對(duì)最優(yōu)超平面的影響。(2)模糊支持向量機(jī)FSVM為了克服噪聲和野值點(diǎn)對(duì)支持向量機(jī)(3)孿生支持向量機(jī)TSVMs2007年,Jayadeva和KhemchandaniR提出了一種二值數(shù)據(jù)的分類器——孿生支持向量機(jī)(又稱雙分界面支持向量機(jī))TWSVMs在形式上類似于傳統(tǒng)的支持向量機(jī),具有傳統(tǒng)支持向量機(jī)的優(yōu)點(diǎn),且對(duì)大規(guī)模數(shù)據(jù)具有更好的處理能力。TWSVMs為兩個(gè)類各自得到一個(gè)分類平面,屬于每個(gè)類的數(shù)據(jù)盡量圍繞在與之相對(duì)應(yīng)的分類平面周圍,然后TWSVMs通過優(yōu)化一對(duì)分類平面來構(gòu)建分類超平面。即:TWSVMs解決一對(duì)QP問題,而SVM則是解決一個(gè)QP問題,但是在TWSVMs中,其中一個(gè)類的數(shù)據(jù)要作為另一個(gè)QP問題的約束條件,反之亦然。(3)孿生支持向量機(jī)TSVMs2007年,Jayadeva8.5.2多類問題中的SVM類模式識(shí)別問題是為個(gè)樣本構(gòu)成一個(gè)決策函數(shù)。由于SVM是解決兩類問題的有效方
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024花卉買賣合同范本范文
- 2024板式換熱器化學(xué)清洗合同
- 2024年公共環(huán)衛(wèi)設(shè)施:環(huán)衛(wèi)垃圾桶合作協(xié)議書
- 2024技術(shù)轉(zhuǎn)讓合同樣式
- 2024校長聘任合同
- 2024道路工程補(bǔ)充合同
- 人教版四年級(jí)上冊數(shù)學(xué)第四單元《三位數(shù)乘兩位數(shù)》測試卷附答案【輕巧奪冠】
- 智能園林裝備制造項(xiàng)目環(huán)評(píng)報(bào)告表
- 年產(chǎn)5萬平方米復(fù)合保溫外模板項(xiàng)目環(huán)評(píng)報(bào)告表
- 2024年化學(xué)單質(zhì):碳合作協(xié)議書
- 北師大版數(shù)學(xué)五年級(jí)上冊四 多邊形面積教案
- 地下車庫交通設(shè)施標(biāo)牌標(biāo)線清單
- 千伏線路無人機(jī)放線施工方案
- 線路工程灌注樁施工作業(yè)指導(dǎo)書施工方案
- 鐵塔用Q420高強(qiáng)鋼焊接作業(yè)指導(dǎo)書最新
- 公安筆錄模板之詢問嫌疑人(書面?zhèn)鲉局伟舶讣?
- 個(gè)體診所藥品清單
- 4X100米接力跑
- 灌漿材料性能測試方案
- 鄂爾多斯盆地地層劃分表
- 競聘團(tuán)委書記演講.doc
評(píng)論
0/150
提交評(píng)論