深度學(xué)習(xí)從0到1_第1頁(yè)
深度學(xué)習(xí)從0到1_第2頁(yè)
深度學(xué)習(xí)從0到1_第3頁(yè)
深度學(xué)習(xí)從0到1_第4頁(yè)
深度學(xué)習(xí)從0到1_第5頁(yè)
已閱讀5頁(yè),還剩45頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

深度學(xué)習(xí)從0到1讀書筆記模板01思維導(dǎo)圖目錄分析讀書筆記內(nèi)容摘要作者介紹精彩摘錄目錄0305020406思維導(dǎo)圖深度深度神經(jīng)網(wǎng)絡(luò)方向算法發(fā)展模型參考文獻(xiàn)神經(jīng)網(wǎng)絡(luò)項(xiàng)目第章函數(shù)數(shù)據(jù)應(yīng)用介紹學(xué)習(xí)分類深度網(wǎng)絡(luò)本書關(guān)鍵字分析思維導(dǎo)圖內(nèi)容摘要內(nèi)容摘要深度學(xué)習(xí)是人工智能研究領(lǐng)域中的一個(gè)極其重要的方向。本書是一本介紹深度學(xué)習(xí)理論和實(shí)戰(zhàn)應(yīng)用的教程,從深度學(xué)習(xí)的發(fā)展歷史,單層感知器,線性神經(jīng)網(wǎng)絡(luò),BP神經(jīng)網(wǎng)絡(luò),一直介紹到深度學(xué)習(xí)算法卷積神經(jīng)網(wǎng)絡(luò)CNN,長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)LSTM。并從圖像,自然語(yǔ)言處理,音頻信號(hào)三方面分別介紹了深度學(xué)習(xí)算法的實(shí)際應(yīng)用。案例實(shí)戰(zhàn)部分使用的深度學(xué)習(xí)框架為Tensorflow2/Keras。目錄分析1.1人工智能1.2機(jī)器學(xué)習(xí)1.3人工智能、機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)及深度學(xué)習(xí)之間的關(guān)系1.4深度學(xué)習(xí)的應(yīng)用1.5神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的發(fā)展史12345第1章深度學(xué)習(xí)背景介紹1.6深度學(xué)習(xí)領(lǐng)域中的重要人物1.8參考文獻(xiàn)1.7新一輪人工智能爆發(fā)的三要素第1章深度學(xué)習(xí)背景介紹2.1Python介紹2.3JupyterNotebook的簡(jiǎn)單使用2.2Anaconda安裝第2章搭建Python編程環(huán)境3.1生物神經(jīng)網(wǎng)絡(luò)3.2單層感知器3.3單層感知器的學(xué)習(xí)規(guī)則3.4學(xué)習(xí)率第3章單層感知器與線性神經(jīng)網(wǎng)絡(luò)3.5模型的收斂條件3.6模型的超參數(shù)和參數(shù)的區(qū)別3.7單層感知器分類案例3.8線性神經(jīng)網(wǎng)絡(luò)3.9線性神經(jīng)網(wǎng)絡(luò)處理異或問題12345第3章單層感知器與線性神經(jīng)網(wǎng)絡(luò)4.1BP神經(jīng)網(wǎng)絡(luò)介紹及發(fā)展背景4.2代價(jià)函數(shù)4.3梯度下降法4.4Delta學(xué)習(xí)規(guī)則4.5常用激活函數(shù)講解4.6BP神經(jīng)網(wǎng)絡(luò)模型和公式推導(dǎo)010302040506第4章BP神經(jīng)網(wǎng)絡(luò)4.7BP算法推導(dǎo)結(jié)論總結(jié)4.8梯度消失與梯度爆炸4.9使用BP神經(jīng)網(wǎng)絡(luò)解決異或問題4.10分類模型評(píng)估方法4.11獨(dú)熱編碼4.12BP神經(jīng)網(wǎng)絡(luò)完成手寫數(shù)字識(shí)別010302040506第4章BP神經(jīng)網(wǎng)絡(luò)4.14參考文獻(xiàn)4.13Sklearn手寫數(shù)字識(shí)別第4章BP神經(jīng)網(wǎng)絡(luò)5.1Tensorflow介紹5.2Tensorflow-cpu安裝5.3Tensorflow-gpu安裝5.4Tensorflow基本概念第5章深度學(xué)習(xí)框架Tensorflow基礎(chǔ)使用5.6手寫數(shù)字圖片分類任務(wù)5.5Tensorflow基礎(chǔ)使用第5章深度學(xué)習(xí)框架Tensorflow基礎(chǔ)使用6.1交叉熵代價(jià)函數(shù)6.2過擬合6.3數(shù)據(jù)增強(qiáng)6.4提前停止訓(xùn)練6.5Dropout12345第6章網(wǎng)絡(luò)優(yōu)化方法6.6正則化6.7標(biāo)簽平滑6.8優(yōu)化器6.9參考文獻(xiàn)第6章網(wǎng)絡(luò)優(yōu)化方法7.1Keras模型保存和載入7.2SavedModel模型保存和載入7.3單獨(dú)保存模型的結(jié)構(gòu)7.4單獨(dú)保存模型參數(shù)第7章Tensorflow模型的保存和載入7.6Checkpoint模型保存和載入7.5ModelCheckpoint自動(dòng)保存模型第7章Tensorflow模型的保存和載入8.1計(jì)算機(jī)視覺介紹8.2卷積神經(jīng)網(wǎng)簡(jiǎn)介8.3卷積的具體計(jì)算8.4卷積的步長(zhǎng)8.5不同的卷積核12345第8章卷積神經(jīng)網(wǎng)絡(luò)(CNN)8.6池化8.7Padding8.8常見的卷積計(jì)算總結(jié)8.9經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)8.10卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于MNIST數(shù)據(jù)集分類12345第8章卷積神經(jīng)網(wǎng)絡(luò)(CNN)8.11識(shí)別自己寫的數(shù)字圖片8.13參考文獻(xiàn)8.12CIFAR-10數(shù)據(jù)集分類第8章卷積神經(jīng)網(wǎng)絡(luò)(CNN)9.1序列模型應(yīng)用9.2循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)9.3RNN的不同架構(gòu)9.4傳統(tǒng)RNN的缺點(diǎn)9.5長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LSTM)9.6PeepholeLSTM和FC-LSTM010302040506第9章序列模型9.7其他RNN模型9.9參考文獻(xiàn)9.8LSTM網(wǎng)絡(luò)應(yīng)用于MNIST數(shù)據(jù)集分類第9章序列模型10.1圖像數(shù)據(jù)集10.2AlexNet10.3VGGNet10.4GoogleNet10.5BatchNormalization12345第10章經(jīng)典圖像識(shí)別模型介紹(上)10.7參考文獻(xiàn)10.6ResNet第10章經(jīng)典圖像識(shí)別模型介紹(上)11.1Inception模型系列11.2ResNeXt11.3SENet11.4參考文獻(xiàn)第11章經(jīng)典圖像識(shí)別模型介紹(下)12.1圖像數(shù)據(jù)準(zhǔn)備12.2AlexNet圖像識(shí)別12.3VGGNet圖像識(shí)別12.4函數(shù)式模型12.5模型可視化12345第12章圖像識(shí)別項(xiàng)目實(shí)戰(zhàn)12.6GoogleNet圖像識(shí)別12.7BatchNormalization使用12.8ResNet圖像識(shí)別12.9ResNeXt圖像識(shí)別12.10SENet圖像識(shí)別12.11使用預(yù)訓(xùn)練模型進(jìn)行遷移學(xué)習(xí)010302040506第12章圖像識(shí)別項(xiàng)目實(shí)戰(zhàn)13.1多任務(wù)學(xué)習(xí)介紹13.2驗(yàn)證碼數(shù)據(jù)集生成介紹13.4使用自定義數(shù)據(jù)生成器完成驗(yàn)證碼識(shí)別第13章驗(yàn)證碼識(shí)別項(xiàng)目實(shí)戰(zhàn)13.6CTC算法13.5挑戰(zhàn)變長(zhǎng)驗(yàn)證碼識(shí)別第13章驗(yàn)證碼識(shí)別項(xiàng)目實(shí)戰(zhàn)14.1NLP應(yīng)用介紹14.2從傳統(tǒng)語(yǔ)言模型到神經(jīng)語(yǔ)言模型14.3word2vec14.4CNN在NLP領(lǐng)域中的應(yīng)用第14章自然語(yǔ)言處理(NLP)發(fā)展歷程(上)14.5RNN在NLP領(lǐng)域中的應(yīng)用14.6Seq2Seq模型在NLP領(lǐng)域中的應(yīng)用14.7Attention機(jī)制14.8參考文獻(xiàn)第14章自然語(yǔ)言處理(NLP)發(fā)展歷程(上)15.1NLP新的開始:Transformer模型15.3參考文獻(xiàn)15.2BERT模型第15章自然語(yǔ)言處理(NLP)發(fā)展歷程(下)16.1一維卷積英語(yǔ)電影評(píng)論情感分類項(xiàng)目16.2二維卷積中文**情感分類項(xiàng)目16.3雙向LSTM中文**情感分類項(xiàng)目16.4堆疊雙向LSTM中文分詞標(biāo)注項(xiàng)目16.5最新的一些激活函數(shù)介紹16.6BERT模型的簡(jiǎn)單使用010302040506第16章NLP任務(wù)項(xiàng)目實(shí)戰(zhàn)16.8參考文獻(xiàn)16.7BERT電商用戶多情緒判斷項(xiàng)目第16章NLP任務(wù)項(xiàng)目實(shí)戰(zhàn)17.1深度學(xué)習(xí)在聲音領(lǐng)域的應(yīng)用17.3語(yǔ)音分類項(xiàng)目17.2MFCC和MelFilterBanks第17章音頻信號(hào)處理18.2圖像風(fēng)格轉(zhuǎn)換項(xiàng)目實(shí)戰(zhàn)18.1圖像風(fēng)格轉(zhuǎn)換實(shí)現(xiàn)原理第18章圖像風(fēng)格轉(zhuǎn)換18.4參考文獻(xiàn)18.3遮擋圖像風(fēng)格轉(zhuǎn)換項(xiàng)目實(shí)戰(zhàn)第18章圖像風(fēng)格轉(zhuǎn)換19.1生成對(duì)抗網(wǎng)絡(luò)的應(yīng)用19.2DCGAN介紹19.3手寫數(shù)字圖像生成19.4參考文獻(xiàn)第19章生成對(duì)抗網(wǎng)絡(luò)20.2運(yùn)行客戶端和服務(wù)器程序20.1Tensorflo

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論