機器學習實戰(zhàn)課件模板_第1頁
機器學習實戰(zhàn)課件模板_第2頁
機器學習實戰(zhàn)課件模板_第3頁
機器學習實戰(zhàn)課件模板_第4頁
機器學習實戰(zhàn)課件模板_第5頁
已閱讀5頁,還剩88頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

機器學習實戰(zhàn)演講人202x-11-1101版權(quán)聲明版權(quán)聲明02獻詞獻詞

03一分類一分類041機器學習基礎(chǔ)1機器學習基礎(chǔ)11.1何謂機器學習21.2關(guān)鍵術(shù)語31.3機器學習的主要任務41.4如何選擇合適的算法51.5開發(fā)機器學習應用程序的步驟61.6python語言的優(yōu)勢1機器學習基礎(chǔ)1.7numpy函數(shù)庫基礎(chǔ)1.8本章小結(jié)1.8本章小結(jié)1機器學習基礎(chǔ)1.1何謂機器學習11.1.1傳感器和海量數(shù)據(jù)21.1.2機器學習非常重要1機器學習基礎(chǔ)1.6python語言的優(yōu)勢11.6.1可執(zhí)行偽代碼21.6.2python比較流行31.6.3python語言的特色41.6.4python語言的缺點052k-近鄰算法2k-近鄰算法2.1k-近鄰算法概述2.2示例:使用k近鄰算法改進約會網(wǎng)站的配對效果2.3示例:手寫識別系統(tǒng)2.4本章小結(jié)2k-近鄰算法2.1k-近鄰算法概述12.1.1準備:使用python導入數(shù)據(jù)22.1.2實施knn分類算法32.1.3如何測試分類器2k-近鄰算法2.2示例:使用k近鄰算法改進約會網(wǎng)站的配對效果2.2.1準備數(shù)據(jù):從文本文件中解析數(shù)據(jù)012.2.2分析數(shù)據(jù):使用matplotlib創(chuàng)建散點圖022.2.3準備數(shù)據(jù):歸一化數(shù)值032.2.4測試算法:作為完整程序驗證分類器042.2.5使用算法:構(gòu)建完整可用系統(tǒng)052k-近鄰算法2.3示例:手寫識別系統(tǒng)ab2.3.2測試算法:使用k近鄰算法識別手寫數(shù)字2.3.1準備數(shù)據(jù):將圖像轉(zhuǎn)換為測試向量063決策樹3決策樹3.1決策樹的構(gòu)造3.2在python中使用matplotlib注解繪制樹形圖3.3測試和存儲分類器3.4示例:使用決策樹預測隱形眼鏡類型3.5本章小結(jié)3.2在Python中使用Matplotlib注解繪制樹形圖3.3測試和存儲分類器3.4示例:使用決策樹預測隱形眼鏡類型3.5本章小結(jié)3決策樹3.1決策樹的構(gòu)造3.1.2劃分數(shù)據(jù)集1323.1.1信息增益3.1.3遞歸構(gòu)建決策樹3決策樹3.2在python中使用matplotlib注解繪制樹形圖a3.2.1matplotlib注解3.2.2構(gòu)造注解樹b3決策樹3.3測試和存儲分類器ab3.3.2使用算法:決策樹的存儲3.3.1測試算法:使用決策樹執(zhí)行分類074基于概率論的分類方法:樸素貝葉斯14.1基于貝葉斯決策理論的分類方法34.3使用條件概率來分類24.2條件概率44.4使用樸素貝葉斯進行文檔分類4基于概率論的分類方法:樸素貝葉斯54.5使用Python進行文本分類64.6示例:使用樸素貝葉斯過濾垃圾郵件4基于概率論的分類方法:樸素貝葉斯4.7示例:使用樸素貝葉斯分類器從個人廣告中獲取區(qū)域傾向4.8本章小結(jié)4基于概率論的分類方法:樸素貝葉斯4.5使用python進行文本分類4.5.1準備數(shù)據(jù):從文本中構(gòu)建詞向量014.5.2訓練算法:從詞向量計算概率024.5.3測試算法:根據(jù)現(xiàn)實情況修改分類器034.5.4準備數(shù)據(jù):文檔詞袋模型044基于概率論的分類方法:樸素貝葉斯4.6示例:使用樸素貝葉斯過濾垃圾郵件01024.6.1準備數(shù)據(jù):切分文本4.6.2測試算法:使用樸素貝葉斯進行交叉驗證4基于概率論的分類方法:樸素貝葉斯4.7示例:使用樸素貝葉斯分類器從個人廣告中獲取區(qū)域傾向14.7.1收集數(shù)據(jù):導入rss源24.7.2分析數(shù)據(jù):顯示地域相關(guān)的用詞085logistic回歸5logistic回歸5.1基于logistic回歸和sigmoid函數(shù)的分類

5.2基于最優(yōu)化方法的最佳回歸系數(shù)確定5.2.1梯度上升法5.2.2訓練算法:使用梯度上升找到最佳參數(shù)5.2.3分析數(shù)據(jù):畫出決策邊界5.2.4訓練算法:隨機梯度上升5.3示例:從疝氣病癥預測病馬的死亡率5.3.1準備數(shù)據(jù):處理數(shù)據(jù)中的缺失值5.3.2測試算法:用logistic回歸進行分類5.4本章小結(jié)

5.2基于最優(yōu)化方法的最佳回歸系數(shù)確定5.2.1梯度上升法5.2.2訓練算法:使用梯度上升找到最佳參數(shù)5.2.3分析數(shù)據(jù):畫出決策邊界5.2.4訓練算法:隨機梯度上升5.3示例:從疝氣病癥預測病馬的死亡率5.3.1準備數(shù)據(jù):處理數(shù)據(jù)中的缺失值5.3.2測試算法:用Logistic回歸進行分類5.4本章小結(jié)

096支持向量機6支持向量機ABCDEF6.1基于最大間隔分隔數(shù)據(jù)6.3smo高效優(yōu)化算法6.5在復雜數(shù)據(jù)上應用核函數(shù)6.2尋找最大間隔6.4利用完整plattsmo算法加速優(yōu)化6.6示例:手寫識別問題回顧6支持向量機6.7本章小結(jié)6支持向量機6.2尋找最大間隔16.2.1分類器求解的優(yōu)化問題26.2.2svm應用的一般框架6支持向量機6.3smo高效優(yōu)化算法ab6.3.2應用簡化版smo算法處理小規(guī)模數(shù)據(jù)集6.3.1platt的smo算法6支持向量機6.5在復雜數(shù)據(jù)上應用核函數(shù)6.5.1利用核函數(shù)將數(shù)據(jù)映射到高維空間6.5.2徑向基核函數(shù)6.5.3在測試中使用核函數(shù)107利用adaboost元算法提高分類性能17.1基于數(shù)據(jù)集多重抽樣的分類器37.3基于單層決策樹構(gòu)建弱分類器27.2訓練算法:基于錯誤提升分類器的性能47.4完整AdaBoost算法的實現(xiàn)7利用adaboost元算法提高分類性能57.5測試算法:基于AdaBoost的分類67.6示例:在一個難數(shù)據(jù)集上應用AdaBoost7利用adaboost元算法提高分類性能7.1基于數(shù)據(jù)集多重抽樣的分類器017.1.1bagging:基于數(shù)據(jù)隨機重抽樣的分類器構(gòu)建方法027.1.2boosting7利用adaboost元算法提高分類性能7.7非均衡分類問題單擊此處添加標題9,300million7.7.1其他分類性能度量指標:正確率、召回率及roc曲線7.7.2基于代價函數(shù)的分類器決策控制7.7.3處理非均衡問題的數(shù)據(jù)抽樣方法單擊此處輸入你的正文,文字是您思想的提煉,為了最終演示發(fā)布的良好效果,請盡量言簡意賅的闡述觀點;根據(jù)需要可酌情增減文字,以便觀者可以準確理解您所傳達的信息。11二利用回歸預測數(shù)值型數(shù)據(jù)二利用回歸預測數(shù)值型數(shù)據(jù)128預測數(shù)值型數(shù)據(jù):回歸8預測數(shù)值型數(shù)據(jù):回歸ABCDEF8.1用線性回歸找到最佳擬合直線8.3示例:預測鮑魚的年齡8.5權(quán)衡偏差與方差8.2局部加權(quán)線性回歸8.4縮減系數(shù)來「理解」數(shù)據(jù)8.6示例:預測樂高玩具套裝的價格8預測數(shù)值型數(shù)據(jù):回歸8.7本章小結(jié)8預測數(shù)值型數(shù)據(jù):回歸8.4縮減系數(shù)來「理解」數(shù)據(jù)8.4.1嶺回歸8.4.2lasso8.4.3前向逐步回歸8預測數(shù)值型數(shù)據(jù):回歸8.6示例:預測樂高玩具套裝的價格18.6.1收集數(shù)據(jù):使用google購物的api28.6.2訓練算法:建立模型139樹回歸9樹回歸19.1復雜數(shù)據(jù)的局部性建模29.2連續(xù)和離散型特征的樹的構(gòu)建39.3將cart算法用于回歸49.4樹剪枝59.5模型樹69.6示例:樹回歸與標準回歸的比較9.7使用python的tkinter庫創(chuàng)建gui9.8本章小結(jié)9.8本章小結(jié)9樹回歸9樹回歸9.3將cart算法用于回歸9.3.1構(gòu)建樹19.3.2運行代碼29樹回歸9.4樹剪枝9.4.1預剪枝19.4.2后剪枝29樹回歸9.7使用python的tkinter庫創(chuàng)建gui19.7.1用tkinter創(chuàng)建gui29.7.2集成matplotlib和tkinter14三無監(jiān)督學習三無監(jiān)督學習1510利用k-均值聚類算法對未標注數(shù)據(jù)分組10利用k-均值聚類算法對未標注數(shù)據(jù)分組10.1k均值聚類算法

10.2使用后處理來提高聚類性能

10.3二分k均值算法

10.4示例:對地圖上的點進行聚類10.4.1yahoo!placefinderapi10.4.2對地理坐標進行聚類10.4.2對地理坐標進行聚類10.5本章小結(jié)

1611使用apriori算法進行關(guān)聯(lián)分析11使用apriori算法進行關(guān)聯(lián)分析M.94275.CN111.1關(guān)聯(lián)分析211.2apriori原理311.3使用apriori算法來發(fā)現(xiàn)頻繁集411.4從頻繁項集中挖掘關(guān)聯(lián)規(guī)則511.5示例:發(fā)現(xiàn)國會投票中的模式611.6示例:發(fā)現(xiàn)毒蘑菇的相似特征11使用apriori算法進行關(guān)聯(lián)分析11.7本章小結(jié)11使用apriori算法進行關(guān)聯(lián)分析11.3使用apriori算法來發(fā)現(xiàn)頻繁集111.3.1生成候選項集211.3.2組織完整的apriori算法11使用apriori算法進行關(guān)聯(lián)分析11.5示例:發(fā)現(xiàn)國會投票中的模式11.5.1收集數(shù)據(jù):構(gòu)建美國國會投票記錄的事務數(shù)據(jù)集11.5.2測試算法:基于美國國會投票記錄挖掘關(guān)聯(lián)規(guī)則1712使用fp-growth算法來高效發(fā)現(xiàn)頻繁項集12使用fp-growth算法來高效發(fā)現(xiàn)頻繁項集

12.1fp樹:用于編碼數(shù)據(jù)集的有效方式lorem12.2.1創(chuàng)建fp樹的數(shù)據(jù)結(jié)構(gòu)12.2.2構(gòu)建fp樹12.2.2構(gòu)建FP樹12.2構(gòu)建fp樹12.3.1抽取條件模式基12.3.2創(chuàng)建條件fp樹12.3.2創(chuàng)建條件FP樹12.3從一棵fp樹中挖掘頻繁項集

12.6本章小結(jié)

12.5示例:從新聞網(wǎng)站點擊流中挖掘

12.4示例:在twitter源中發(fā)現(xiàn)一些共現(xiàn)詞loremloremloremloremlorem18四其他工具四其他工具1913利用pca來簡化數(shù)據(jù)

13.3示例:利用pca對半導體制造數(shù)據(jù)降維

13.4本章小結(jié)

13.1降維技術(shù)13.2.1移動坐標軸13.2.2在numpy中實現(xiàn)pca13.2.2在NumPy中實現(xiàn)PCA13.2pca單擊此處添加文本具體內(nèi)容,簡明扼要的闡述您的觀點。添加標題單擊此處添加文本具體內(nèi)容,簡明扼要的闡述您的觀點。添加標題66%36%13利用pca來簡化數(shù)據(jù)2014利用svd簡化數(shù)據(jù)14.1svd的應用14.2矩陣分解14.3利用python實現(xiàn)svd14.4基于協(xié)同過濾的推薦引擎14.5示例:餐館菜肴推薦引擎14.6示例:基于svd的圖像壓縮14利用svd簡化數(shù)據(jù)單擊此處添加文本具體內(nèi)容,簡明扼要的闡述您的觀點。根據(jù)需要可酌情增減文字,以便觀者準確的理解您傳達的思想。單擊此處添加標題14利用svd簡化數(shù)據(jù)14.7本章小結(jié)14.1svd的應用14.1.2推薦系統(tǒng)14利用svd簡化數(shù)據(jù)14利用svd簡化數(shù)據(jù)14.4基于協(xié)同過濾的推薦引擎14.4.1相似度計算0114.4.2基于物品的相似度還是基于用戶的相似度?0214.4.3推薦引擎的評價0314利用svd簡化數(shù)據(jù)14.5示例:餐館菜肴推薦引擎114.5.1推薦未嘗過的菜肴214.5.2利用svd提高推薦的效果314.5.3構(gòu)建推薦引擎面臨的挑戰(zhàn)2115大數(shù)據(jù)與mapreduce115.1MapReduce:分布式計算的框架315.3在Amazon網(wǎng)絡服務上運行Hadoop程序215.2Hadoop流415.4MapReduce上的機器學習15大數(shù)據(jù)與mapreduce515.5在Python中使用mrjob來自動化MapReduce615.6示例:分布式SVM的Pegasos算法15大數(shù)據(jù)與mapreduce15.7你真的需要mapreduce嗎?15.8本章小結(jié)15.8本章小結(jié)15大數(shù)據(jù)與mapreduce15.2hadoop流ab15.2.2分布式計算均值和方差的reducer15.2.1分布式計算均值和方差的mapper15大數(shù)據(jù)與mapreduce15.3在amazon網(wǎng)絡服務上運行hadoop程序115.3.1aws上的可用服務215.3.2開啟amazon網(wǎng)絡服務之旅315.3.3在emr上運行hadoop作業(yè)15大數(shù)據(jù)與mapreduce15.5在python中使用mrjob來自動化mapredu

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論