深入淺出Python機器學(xué)習(xí)課件模板_第1頁
深入淺出Python機器學(xué)習(xí)課件模板_第2頁
深入淺出Python機器學(xué)習(xí)課件模板_第3頁
深入淺出Python機器學(xué)習(xí)課件模板_第4頁
深入淺出Python機器學(xué)習(xí)課件模板_第5頁
已閱讀5頁,還剩69頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

深入淺出python機器學(xué)習(xí)演講人202x-11-1101書名頁one

書名頁021概述one1概述1.1什么是機器學(xué)習(xí)——從一個小故事開始1.2機器學(xué)習(xí)的一些應(yīng)用場景——蝙蝠公司的業(yè)務(wù)單元1.3機器學(xué)習(xí)應(yīng)該如何入門——世上無難事1.4有監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)1.5機器學(xué)習(xí)中的分類與回歸1.6模型的泛化、過擬合與欠擬合1概述1.7小結(jié)032基于python語言的環(huán)境配置one2.1python的下載和安裝2.2jupyternotebook的安裝與使用方法2.3一些必需庫的安裝及功能簡介2.4scikit-learn——非常流行的python機器學(xué)習(xí)庫2.5小結(jié)2.2JupyterNotebook的安裝與使用方法2.3一些必需庫的安裝及功能簡介2.4scikit-learn——非常流行的Python機器學(xué)習(xí)庫2.5小結(jié)2基于python語言的環(huán)境配置2基于python語言的環(huán)境配置2.2jupyternotebook的安裝與使用方法2.2.1使用pip進行jupyternotebook的下載和安裝012.2.2運行jupyternotebook022.2.3jupyternotebook的使用方法032基于python語言的環(huán)境配置2.3一些必需庫的安裝及功能簡介2.3.1numpy——基礎(chǔ)科學(xué)計算庫012.3.2scipy——強大的科學(xué)計算工具集022.3.3pandas——數(shù)據(jù)分析的利器032.3.4matplotlib——畫出優(yōu)美的圖形04043k最近鄰算法——近朱者赤,近墨者黑one3.1k最近鄰算法的原理3.2k最近鄰算法的用法3.3k最近鄰算法項目實戰(zhàn)——酒的分類3.4小結(jié)3.2K最近鄰算法的用法3.3K最近鄰算法項目實戰(zhàn)——酒的分類3.4小結(jié)3k最近鄰算法——近朱者赤,近墨者黑3k最近鄰算法——近朱者赤,近墨者黑3.2k最近鄰算法的用法13.2.1k最近鄰算法在分類任務(wù)中的應(yīng)用23.2.2k最近鄰算法處理多元分類任務(wù)33.2.3k最近鄰算法用于回歸分析3k最近鄰算法——近朱者赤,近墨者黑3.3k最近鄰算法項目實戰(zhàn)——酒的分類3.3.1對數(shù)據(jù)集進行分析013.3.2生成訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集023.3.3使用k最近鄰算法進行建模033.3.4使用模型對新樣本的分類進行預(yù)測04054廣義線性模型——「耿直」的算法模型one4.1線性模型的基本概念4.2最基本的線性模型——線性回歸4.3使用l2正則化的線性模型——嶺回歸4.4使用l1正則化的線性模型——套索回歸4.5小結(jié)4.2最基本的線性模型——線性回歸4.3使用L2正則化的線性模型——嶺回歸4.4使用L1正則化的線性模型——套索回歸4.5小結(jié)4廣義線性模型——「耿直」的算法模型4廣義線性模型——「耿直」的算法模型4.1線性模型的基本概念4.1.2線性模型的圖形表示4.1.3線性模型的特點4.1.1線性模型的一般公式4廣義線性模型——「耿直」的算法模型4.2最基本的線性模型——線性回歸14.2.1線性回歸的基本原理24.2.2線性回歸的性能表現(xiàn)4廣義線性模型——「耿直」的算法模型4.3使用l2正則化的線性模型——嶺回歸14.3.1嶺回歸的原理24.3.2嶺回歸的參數(shù)調(diào)節(jié)4廣義線性模型——「耿直」的算法模型4.4使用l1正則化的線性模型——套索回歸4.4.2套索回歸的參數(shù)調(diào)節(jié)4.4.3套索回歸與嶺回歸的對比4.4.1套索回歸的原理065樸素貝葉斯——打雷啦,收衣服啊one5.1樸素貝葉斯基本概念5.2樸素貝葉斯算法的不同方法5.3樸素貝葉斯實戰(zhàn)——判斷腫瘤是良性還是惡性5.4小結(jié)5樸素貝葉斯——打雷啦,收衣服啊5樸素貝葉斯——打雷啦,收衣服啊5.1樸素貝葉斯基本概念5.1.2樸素貝葉斯的簡單應(yīng)用5.1.1貝葉斯定理5樸素貝葉斯——打雷啦,收衣服啊5.2樸素貝葉斯算法的不同方法15.2.1貝努利樸素貝葉斯25.2.2高斯樸素貝葉斯35.2.3多項式樸素貝葉斯5樸素貝葉斯——打雷啦,收衣服啊5.3樸素貝葉斯實戰(zhàn)——判斷腫瘤是良性還是惡性15.3.1對數(shù)據(jù)集進行分析25.3.2使用高斯樸素貝葉斯進行建模35.3.3高斯樸素貝葉斯的學(xué)習(xí)曲線076決策樹與隨機森林——會玩讀心術(shù)的算法one6決策樹與隨機森林——會玩讀心術(shù)的算法6.1決策樹6.2隨機森林6.3隨機森林實例——要不要和相親對象進一步發(fā)展6.4小結(jié)6決策樹與隨機森林——會玩讀心術(shù)的算法6.1決策樹16.1.1決策樹基本原理26.1.2決策樹的構(gòu)建36.1.3決策樹的優(yōu)勢和不足6決策樹與隨機森林——會玩讀心術(shù)的算法6.2隨機森林16.2.1隨機森林的基本概念26.2.2隨機森林的構(gòu)建36.2.3隨機森林的優(yōu)勢和不足6決策樹與隨機森林——會玩讀心術(shù)的算法6.3隨機森林實例——要不要和相親對象進一步發(fā)展16.3.1數(shù)據(jù)集的準備26.3.2用get_dummies處理數(shù)據(jù)36.3.3用決策樹建模并做出預(yù)測087支持向量機svm——專治線性不可分one7支持向量機svm——專治線性不可分7.1支持向量機svm基本概念7.2svm的核函數(shù)與參數(shù)選擇7.3svm實例——波士頓房價回歸分析7.4小結(jié)7.2SVM的核函數(shù)與參數(shù)選擇7.3SVM實例——波士頓房價回歸分析7.4小結(jié)7支持向量機svm——專治線性不可分7.1支持向量機svm基本概念7.1.1支持向量機svm的原理017.1.2支持向量機svm的核函數(shù)027支持向量機svm——專治線性不可分7.2svm的核函數(shù)與參數(shù)選擇7.2.1不同核函數(shù)的svm對比017.2.2支持向量機的gamma參數(shù)調(diào)節(jié)027.2.3svm算法的優(yōu)勢與不足037支持向量機svm——專治線性不可分7.3svm實例——波士頓房價回歸分析17.3.1初步了解數(shù)據(jù)集27.3.2使用svr進行建模098神經(jīng)網(wǎng)絡(luò)——曾入「冷宮」,如今得寵one8神經(jīng)網(wǎng)絡(luò)——曾入「冷宮」,如今得寵8.1神經(jīng)網(wǎng)絡(luò)的前世今生8.2神經(jīng)網(wǎng)絡(luò)的原理及使用8.3神經(jīng)網(wǎng)絡(luò)實例——手寫識別8.4小結(jié)8神經(jīng)網(wǎng)絡(luò)——曾入「冷宮」,如今得寵8.1神經(jīng)網(wǎng)絡(luò)的前世今生18.1.1神經(jīng)網(wǎng)絡(luò)的起源28.1.2第一個感知器學(xué)習(xí)法則38.1.3神經(jīng)網(wǎng)絡(luò)之父——杰弗瑞·欣頓8神經(jīng)網(wǎng)絡(luò)——曾入「冷宮」,如今得寵8.2神經(jīng)網(wǎng)絡(luò)的原理及使用8.2.2神經(jīng)網(wǎng)絡(luò)中的非線性矯正8.2.3神經(jīng)網(wǎng)絡(luò)的參數(shù)設(shè)置8.2.1神經(jīng)網(wǎng)絡(luò)的原理8神經(jīng)網(wǎng)絡(luò)——曾入「冷宮」,如今得寵8.3神經(jīng)網(wǎng)絡(luò)實例——手寫識別8.3.2訓(xùn)練mlp神經(jīng)網(wǎng)絡(luò)8.3.3使用模型進行數(shù)字識別8.3.1使用mnist數(shù)據(jù)集109數(shù)據(jù)預(yù)處理、降維、特征提取及聚類——快刀斬亂麻one9.1數(shù)據(jù)預(yù)處理9.2數(shù)據(jù)降維9.3特征提取9.4聚類算法9.5小結(jié)9數(shù)據(jù)預(yù)處理、降維、特征提取及聚類——快刀斬亂麻9數(shù)據(jù)預(yù)處理、降維、特征提取及聚類——快刀斬亂麻9.1數(shù)據(jù)預(yù)處理9.1.1使用standardscaler進行數(shù)據(jù)預(yù)處理019.1.2使用minmaxscaler進行數(shù)據(jù)預(yù)處理029.1.3使用robustscaler進行數(shù)據(jù)預(yù)處理039.1.4使用normalizer進行數(shù)據(jù)預(yù)處理049.1.5通過數(shù)據(jù)預(yù)處理提高模型準確率059數(shù)據(jù)預(yù)處理、降維、特征提取及聚類——快刀斬亂麻9.2數(shù)據(jù)降維19.2.1pca主成分分析原理29.2.2對數(shù)據(jù)降維以便于進行可視化39.2.3原始特征與pca主成分之間的關(guān)系9數(shù)據(jù)預(yù)處理、降維、特征提取及聚類——快刀斬亂麻9.3特征提取19.3.1pca主成分分析法用于特征提取29.3.2非負矩陣分解用于特征提取9數(shù)據(jù)預(yù)處理、降維、特征提取及聚類——快刀斬亂麻9.4聚類算法9.4.1k均值聚類算法9.4.2凝聚聚類算法9.4.3dbscan算法1110數(shù)據(jù)表達與特征工程——錦上再添花one10數(shù)據(jù)表達與特征工程——錦上再添花10.1數(shù)據(jù)表達10.2數(shù)據(jù)「升維」10.3自動特征選擇10.4小結(jié)10數(shù)據(jù)表達與特征工程——錦上再添花10.1數(shù)據(jù)表達110.1.1使用啞變量轉(zhuǎn)化類型特征210.1.2對數(shù)據(jù)進行裝箱處理10數(shù)據(jù)表達與特征工程——錦上再添花10.2數(shù)據(jù)「升維」110.2.1向數(shù)據(jù)集添加交互式特征210.2.2向數(shù)據(jù)集添加多項式特征10數(shù)據(jù)表達與特征工程——錦上再添花10.3自動特征選擇110.3.1使用單一變量法進行特征選擇210.3.2基于模型的特征選擇310.3.3迭代式特征選擇1211模型評估與優(yōu)化——只有更好,沒有最好one11模型評估與優(yōu)化——只有更好,沒有最好11.1使用交叉驗證進行模型評估11.2使用網(wǎng)格搜索優(yōu)化模型參數(shù)11.3分類模型的可信度評估11.4小結(jié)11模型評估與優(yōu)化——只有更好,沒有最好11.1使用交叉驗證進行模型評估11.1.1scikit-learn中的交叉驗證法0111.1.2隨機拆分和「挨個兒試試」0211.1.3為什么要使用交叉驗證法0311模型評估與優(yōu)化——只有更好,沒有最好11.2使用網(wǎng)格搜索優(yōu)化模型參數(shù)111.2.1簡單網(wǎng)格搜索211.2.2與交叉驗證結(jié)合的網(wǎng)格搜索11模型評估與優(yōu)化——只有更好,沒有最好11.3分類模型的可信度評估11.3.1分類模型中的預(yù)測準確率0111.3.2分類模型中的決定系數(shù)021312建立算法的管道模型——團結(jié)就是力量one12建立算法的管道模型——團結(jié)就是力量12.1管道模型的概念及用法12.2使用管道模型對股票漲幅進行回歸分析12.3使用管道模型進行模型選擇和參數(shù)調(diào)優(yōu)12.4小結(jié)12建立算法的管道模型——團結(jié)就是力量12.1管道模型的概念及用法112.1.1管道模型的基本概念212.1.2使用管道模型進行網(wǎng)格搜索12建立算法的管道模型——團結(jié)就是力量12.2使用管道模型對股票漲幅進行回歸分析12.2.1數(shù)據(jù)集準備0112.2.2建立包含預(yù)處理和mlp模型的管道模型0212.2.3向管道模型添加特征選擇步驟0312建立算法的管道模型——團結(jié)就是力量12.3使用管道模型進行模型選擇和參數(shù)調(diào)優(yōu)ab12.3.2使用管道模型尋找更優(yōu)參數(shù)12.3.1使用管道模型進行模型選擇1413文本數(shù)據(jù)處理——親,見字如「數(shù)」one13文本數(shù)據(jù)處理——親,見字如「數(shù)」13.1.1使用countvectorizer對文本進行特征提取13.1.2使用分詞工具對中文文本進行分詞13.1.3使用詞袋模型將文本數(shù)據(jù)轉(zhuǎn)為數(shù)組13.1.2使用分詞工具對中文文本進行分詞13.1.3使用詞袋模型將文本數(shù)據(jù)轉(zhuǎn)為數(shù)組13.1文本數(shù)據(jù)的特征提取、中文分詞及詞袋模型1

13.3小結(jié)313.2對文本數(shù)據(jù)進一步進行優(yōu)化處理13.2.1使用n-gram改善詞袋模型13.2.2使用tf-idf模型對文本數(shù)據(jù)進行處理13.2.3刪除文本中的停用詞13.2.2使用tf-idf模型對文本數(shù)據(jù)進行處理13.2.3刪除文本中的停用詞21514從數(shù)據(jù)獲取到話題提取——從「研究員」到「段子手」one14.1簡單頁面的爬取14.2稍微復(fù)雜一點的爬取14.3對文本數(shù)據(jù)進行話題提取14.4小結(jié)14從數(shù)據(jù)獲取到話題提取——從「研究員」到「段子手」14從數(shù)據(jù)獲取到話題提取——從「研究員」到「段子手」14.1簡單頁面的爬取114.1.1準備requests庫和useragent214.1.2確定一個目標網(wǎng)站并分析其結(jié)構(gòu)314.1.3進行爬取并保存為本地文件14從數(shù)據(jù)獲取到話題提取——從「研究員」到「段子手」14.2稍微復(fù)雜一點的爬取14.2.1確定目標頁面并進行分析0114.2.2python中的正則表達式0214.2.3使用beautifulsoup進行html解析0314.2.4對目

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論