




版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
機(jī)器學(xué)習(xí)基礎(chǔ)回歸2020/12/3機(jī)器學(xué)習(xí)基礎(chǔ)回歸簡(jiǎn)單線(xiàn)性回歸()評(píng)估模型多元線(xiàn)性回歸()多項(xiàng)式回歸()正則化()應(yīng)用線(xiàn)性回歸用梯度下降擬合模型()2020/12/3線(xiàn)性回歸第3-2課簡(jiǎn)單線(xiàn)性回歸簡(jiǎn)單的線(xiàn)性回歸可以用來(lái)建模一個(gè)響應(yīng)變量和一個(gè)解釋變量之間的線(xiàn)性關(guān)系。假設(shè)你想知道比薩餅的價(jià)格2020/12/3線(xiàn)性回歸第3-3課觀(guān)察數(shù)據(jù)2020/12/3線(xiàn)性回歸第3-4課將matplotlib.pyplot導(dǎo)入為PLTX=[[6],[8],[10],[14],[18]]y=[[7],[9],[13],[17.5],[18]]PLT.FIGUE()plt.title(“比薩餅價(jià)格與直徑之間的關(guān)系”)PLT.XLABEL(“直徑(英寸)”)PLT.YLabel(“以美元計(jì)價(jià)的價(jià)格”)plt.plot(X,y,'k.')PLT.Axis([0,25,0,25])PLT.GRID(真)plt.show()sklearn.linear_model.linearregression2020/12/3線(xiàn)性回歸第3-5課#導(dǎo)入sklearn從sklearn.linear_model導(dǎo)入LinearRegression#訓(xùn)練數(shù)據(jù)X=[[6],[8],[10],[14],[18]]y=[[7],[9],[13],[17.5],[18]]#創(chuàng)建并擬合模型模型=線(xiàn)性回歸()model.fit(X,y)打印('一個(gè)12英寸的比薩餅應(yīng)該花費(fèi):$%.2f'%Model.Predict([12])[0])#12英寸的比薩餅應(yīng)該要13.68美元sklearn.linear_model.linearregressionLinear_Model.LinearRegression類(lèi)是一個(gè)估計(jì)器。估計(jì)器基于觀(guān)察到的數(shù)據(jù)預(yù)測(cè)值。在scikit-learn中,所有估計(jì)器都實(shí)現(xiàn)fit()和predict()方法。前一種方法用于學(xué)習(xí)一個(gè)模型的參數(shù),后一種方法用于利用學(xué)習(xí)的參數(shù)對(duì)一個(gè)解釋變量預(yù)測(cè)一個(gè)響應(yīng)變量的值。使用scikit-learn可以很容易地對(duì)不同的模型進(jìn)行實(shí)驗(yàn),因?yàn)樗械墓烙?jì)器都實(shí)現(xiàn)了擬合和預(yù)測(cè)方法2020/12/3線(xiàn)性回歸第3-6課結(jié)果2020/12/3線(xiàn)性回歸第3-7課打印((ercept_,model.coef_))Z=模型。預(yù)測(cè)(X)PLT散點(diǎn)(X,y)plt.plot(X,Z,color='red')plt.title(“比薩餅價(jià)格與直徑之間的關(guān)系”)PLT.XLABEL(“直徑(英寸)”)PLT.YLabel(“以美元計(jì)價(jià)的價(jià)格”)plt.show()#(array([1.96551743]),array([[0.9762931]]))評(píng)估模型的適應(yīng)度由幾組參數(shù)值產(chǎn)生的回歸線(xiàn)繪制在下圖中。我們?nèi)绾卧u(píng)估哪些參數(shù)產(chǎn)生了最佳擬合的回歸線(xiàn)?2020/12/3線(xiàn)性回歸第3-8課成本函數(shù)成本函數(shù),也稱(chēng)為損失函數(shù),用于定義和度量模型的誤差。模型預(yù)測(cè)的價(jià)格與訓(xùn)練集中的比薩觀(guān)察價(jià)格之間的差異稱(chēng)為殘差或訓(xùn)練誤差。稍后,我們將在一組單獨(dú)的測(cè)試數(shù)據(jù)上評(píng)估一個(gè)模型;測(cè)試數(shù)據(jù)中預(yù)測(cè)值和觀(guān)察值之間的差異稱(chēng)為預(yù)測(cè)誤差或測(cè)試誤差。我們模型的殘差由訓(xùn)練實(shí)例點(diǎn)和回歸超平面點(diǎn)之間的垂直線(xiàn)表示,如下圖所示:2023/11/4LinearRegressionLesson3-9通過(guò)最小化殘差和,我們可以得到最佳的比薩餅價(jià)格預(yù)測(cè)值。也就是說(shuō),如果我們的模型預(yù)測(cè)的響應(yīng)變量的值接近于所有訓(xùn)練示例的觀(guān)察值,那么我們的模型就適合了。這個(gè)模型適應(yīng)度的度量稱(chēng)為殘差平方和代價(jià)函數(shù)。2023/11/4LinearRegressionLesson3-10importnumpyasnprss=np.sum((model.predict(X)-y)**2)print('Residualsumofsquares:%.2f'%(rss,))#Residualsumofsquares:8.75求解簡(jiǎn)單線(xiàn)性回歸的最小二乘法對(duì)于一元線(xiàn)性回歸模型,
假設(shè)從總體中獲取了n組觀(guān)察值(X1,Y1),(X2,Y2),
…,(Xn,Yn)。對(duì)于平面中的這n個(gè)點(diǎn),可以使用無(wú)數(shù)條曲線(xiàn)來(lái)擬合。要求樣本回歸函數(shù)盡可能好地?cái)M合這組值,最常用的是普通最小二乘法(
Ordinary
LeastSquare,OLS):所選擇的回歸模型應(yīng)該使所有觀(guān)察值的殘差平方和達(dá)到最小。2023/11/4LinearRegressionLesson3-11varianceofx>>>importnumpyasnp>>>printnp.var([6,8,10,14,18],ddof=1)covarianceofxandy>>>importnumpyasnp>>>printnp.cov([6,8,10,14,18],[7,9,13,17.5,18])[0][1]2023/11/4LinearRegressionLesson3-12既然我們已經(jīng)計(jì)算了解釋變量的方差以及響應(yīng)和解釋變量的協(xié)方差,我們可以使用以下公式進(jìn)行求解:在求解β后,我們可以使用以下公式求解α:2023/11/4LinearRegressionLesson3-13評(píng)估模型我們使用了一種學(xué)習(xí)算法來(lái)從訓(xùn)練數(shù)據(jù)中估計(jì)模型的參數(shù)。我們?nèi)绾卧u(píng)估我們的模型是否是真實(shí)關(guān)系的良好代表?2023/11/4LinearRegressionLesson3-14R-squared有幾種方法可以用來(lái)評(píng)估我們模型的預(yù)測(cè)能力。我們將使用r平方來(lái)評(píng)估我們的比薩餅價(jià)格預(yù)測(cè)值。R平方度量模型對(duì)響應(yīng)變量的觀(guān)測(cè)值的預(yù)測(cè)效果。更具體地說(shuō),r平方是模型解釋的響應(yīng)變量中方差的比例。r平方分為1,表明利用該模型可以對(duì)響應(yīng)變量進(jìn)行無(wú)誤差預(yù)測(cè)。一半的r平方分?jǐn)?shù)表示可以使用該模型預(yù)測(cè)響應(yīng)變量中一半的方差。計(jì)算r-d有幾種方法。在簡(jiǎn)單線(xiàn)性回歸的情況下,r平方等于Pearson積矩相關(guān)系數(shù)的平方,或Pearson的r。2023/11/4LinearRegressionLesson3-15
2023/11/4LinearRegressionLesson3-16多元線(xiàn)性回歸Formally,multiplelinearregressionisthefollowingmodel:Let'supdateourpizzatrainingdatatoincludethenumberoftoppingswiththefollowingvalues:2023/11/4LinearRegressionLesson3-17MultiplelinearregressionFormally,multiplelinearregressionisthefollowingmodel:2023/11/4LinearRegressionLesson3-18MultiplelinearregressionFormally,multiplelinearregressionisthefollowingmodel:Let'supdateourpizzatrainingdatatoincludethenumberoftoppingswiththefollowingvalues:Wemustalsoupdateourtestdatatoincludethesecondexplanatoryvariable,asfollows:2023/11/4LinearRegressionLesson3-19我們將X乘以它的轉(zhuǎn)置,得到一個(gè)可以反轉(zhuǎn)的方陣。用上標(biāo)T表示,矩陣的轉(zhuǎn)置是通過(guò)將矩陣的行變成列而形成的,反之亦然,如下所示:2023/11/4LinearRegressionLesson3-20>>>fromnumpy.linalgimportinv>>>fromnumpyimportdot,transpose>>>X=[[1,6,2],[1,8,1],[1,10,0],[1,14,2],[1,18,0]]>>>y=[[7],[9],[13],[17.5],[18]]>>>printdot(inv(dot(transpose(X),X)),dot(transpose(X),y))[[1.1875][1.01041667][0.39583333]]2023/11/4LinearRegressionLesson3-21NumPy還提供了一個(gè)最小二乘函數(shù),可以更緊湊地求解參數(shù)值:>>>fromnumpy.linalgimportlstsq>>>X=[[1,6,2],[1,8,1],[1,10,0],[1,14,2],[1,18,0]]>>>y=[[7],[9],[13],[17.5],[18]]>>>printlstsq(X,y)[0][[1.1875][1.01041667][0.39583333]]2023/11/4LinearRegressionLesson3-22sklearn.linear_model.LinearRegression2023/11/4LinearRegressionLesson3-23Polynomialregression在前面的例子中,我們假設(shè)解釋變量和響應(yīng)變量之間的實(shí)際關(guān)系是線(xiàn)性的。這種假設(shè)并不總是正確的。在本節(jié)中,我們將使用多項(xiàng)式回歸,這是多元線(xiàn)性回歸的一個(gè)特例,它將階數(shù)大于1的項(xiàng)添加到模型中。當(dāng)您通過(guò)添加多項(xiàng)式項(xiàng)來(lái)轉(zhuǎn)換訓(xùn)練數(shù)據(jù)時(shí),將捕獲真實(shí)的曲線(xiàn)關(guān)系,然后以與多元線(xiàn)性回歸相同的方式擬合這些項(xiàng)。為了便于可視化,我們將再次使用一個(gè)解釋變量,即比薩的直徑。讓我們使用以下數(shù)據(jù)集比較線(xiàn)性回歸和多項(xiàng)式回歸:2023/11/4LinearRegressionLesson3-24二次回歸,或二次多項(xiàng)式回歸,由以下公式給出:我們只使用了一個(gè)解釋變量,但是模型現(xiàn)在有三個(gè)術(shù)語(yǔ)而不是兩個(gè)術(shù)語(yǔ)。解釋變量已被轉(zhuǎn)換并作為第三項(xiàng)添加到模型中,以捕捉曲線(xiàn)關(guān)系。此外,請(qǐng)注意多項(xiàng)式回歸方程與向量表示法中的多元線(xiàn)性回歸方程相同。多項(xiàng)式特征變換器可以很容易地將多項(xiàng)式特征添加到特征表示中。讓我們根據(jù)這些特性擬合一個(gè)模型,并將其與簡(jiǎn)單線(xiàn)性回歸模型進(jìn)行比較。2023/11/4LinearRegressionLesson3-252023/11/4LinearRegressionLesson3-262023/11/4LinearRegressionLesson3-27現(xiàn)在,讓我們嘗試一個(gè)更高階的多項(xiàng)式。下圖中的曲線(xiàn)圖顯示了由九次多項(xiàng)式創(chuàng)建的回歸曲線(xiàn):2023/11/4LinearRegressionLesson3-28九次多項(xiàng)式回歸模型與訓(xùn)練數(shù)據(jù)擬合得很好!然而,模型的r平方得分是-0.09。我們創(chuàng)建了一個(gè)非常復(fù)雜的模型,它精確地?cái)M合了訓(xùn)練數(shù)據(jù),但無(wú)法近似真實(shí)的關(guān)系。這個(gè)問(wèn)題叫做過(guò)擬合。該模型應(yīng)該歸納出一個(gè)將輸入映射到輸出的一般規(guī)則;相反,它已經(jīng)記住了來(lái)自訓(xùn)練數(shù)據(jù)的輸入和輸出。因此,該模型在測(cè)試數(shù)據(jù)上表現(xiàn)不佳。據(jù)預(yù)測(cè),一個(gè)16英寸的披薩應(yīng)該不到10美元,一個(gè)18英寸的披薩應(yīng)該超過(guò)30美元。該模型完全符合訓(xùn)練數(shù)據(jù),但未能了解尺寸與價(jià)格之間的真實(shí)關(guān)系。2023/11/4LinearRegressionLesson3-29Regularization正則化是可以用來(lái)防止過(guò)度擬合的技術(shù)集合。正則化將信息添加到問(wèn)題中,通常以對(duì)復(fù)雜性的懲罰的形式添加到問(wèn)題中。奧卡姆的剃刀(奧卡姆剃刀律)指出,假設(shè)最少的假設(shè)是最好的。因此,正則化試圖找到解釋數(shù)據(jù)的最簡(jiǎn)單模型。2023/11/4LinearRegressionLesson3-30
2023/11/4LinearRegressionLesson3-31嶺回歸通過(guò)添加系數(shù)的l2范數(shù)來(lái)修正平方代價(jià)函數(shù)的殘差和,如下圖所示,*是控制處罰強(qiáng)度的超參數(shù),超參數(shù)是模型中不能自動(dòng)學(xué)習(xí)的參數(shù),必須手動(dòng)設(shè)置。
2023/11/4LinearRegressionLesson3-32LASSO產(chǎn)生稀疏參數(shù),大多數(shù)系數(shù)將為0,模型將依賴(lài)于特征的一小部分。
2023/11/4LinearRegressionLesson3-33應(yīng)用線(xiàn)性回歸假設(shè)你在一個(gè)聚會(huì)上,你想喝最好的酒。你可以向你的朋友征求建議,但你懷疑他們會(huì)喝任何葡萄酒,不管它來(lái)自何處。幸運(yùn)的是,你帶來(lái)了pH試紙和其他工具來(lái)測(cè)量葡萄酒的各種理化性質(zhì)這畢竟是一場(chǎng)聚會(huì)。我們將使用機(jī)器學(xué)習(xí)來(lái)根據(jù)葡萄酒的物理化學(xué)屬性來(lái)預(yù)測(cè)葡萄酒的質(zhì)量。2023/11/4LinearRegressionLesson3-34UCI機(jī)器學(xué)習(xí)庫(kù)的葡萄酒數(shù)據(jù)集測(cè)量了1599種不同紅酒的11種物理化學(xué)屬性,包括pH值和酒精含量。每一種葡萄酒的質(zhì)量都是由人類(lèi)評(píng)委打分的。分?jǐn)?shù)從0分到10分;0分是最差的質(zhì)量,10分是最好的質(zhì)量。數(shù)據(jù)集可從/ml/datasets/Wine。我們將把這個(gè)問(wèn)題作為一個(gè)回歸任務(wù)來(lái)處理,并將葡萄酒的質(zhì)量回歸到一個(gè)或多個(gè)物理化學(xué)屬性上。此問(wèn)題中的響應(yīng)變量只接受0到10之間的整數(shù)值;我們可以將這些值視為離散值,并將問(wèn)題作為一個(gè)多類(lèi)分類(lèi)任務(wù)來(lái)處理。然而,在本章中,我們將把響應(yīng)變量視為一個(gè)連續(xù)值。2023/11/4LinearRegressionLesson3-35Exploringthedatafixedacidity非揮發(fā)性酸,volatileacidity揮發(fā)性酸,citricacid檸檬酸,residualsugar剩余糖分,chlorides氯化物,freesulfurdioxide游離二氧化硫,totalsulfurdioxide總二氧化硫,density密度,pH酸堿性,sulphates硫酸鹽,alcohol酒精,quality質(zhì)量2023/11/4LinearRegressionLesson3-36首先,我們將加載數(shù)據(jù)集并查看變量的一些基本摘要統(tǒng)計(jì)信息。數(shù)據(jù)以.csv文件的形式提供。請(qǐng)注意,字段之間用分號(hào)分隔,而不是逗號(hào)):2023/11/4LinearRegressionLesson3-37可視化數(shù)據(jù)有助于指示響應(yīng)變量和解釋變量之間是否存在關(guān)系。讓我們使用matplotlib創(chuàng)建一些散點(diǎn)圖??紤]以下代碼片段:2023/11/4LinearRegressionLesson3-382023/11/4LinearRegressionLesson3-39這些圖表明,響應(yīng)變量依賴(lài)于多個(gè)解釋變量;讓我們用多元線(xiàn)性回歸來(lái)建模關(guān)系。我們?nèi)绾螞Q定在模型中包括哪些解釋變量?數(shù)據(jù)幀.corr()計(jì)算成對(duì)相關(guān)矩陣。相關(guān)矩陣證實(shí)了酒精和品質(zhì)之間的正相關(guān)最強(qiáng),而品質(zhì)與揮發(fā)性酸度呈負(fù)相關(guān),而揮發(fā)性酸度是導(dǎo)致葡萄酒嘗起來(lái)像醋一樣的屬性??偠灾覀兗僭O(shè)好的葡萄酒酒精含量高,嘗起來(lái)不像醋。這一假設(shè)似乎是合理的,盡管它表明葡萄酒愛(ài)好者可能沒(méi)有他們聲稱(chēng)的復(fù)雜的味覺(jué)2023/11/4LinearRegressionLesson3-40模型擬合與評(píng)價(jià)2023/11/4LinearRegressionLesson3-41r平方得分為0.35,表明該模型解釋了測(cè)試集中35%的方差。如果不同的75%的數(shù)據(jù)被分區(qū)到訓(xùn)練集,性能可能會(huì)發(fā)生變化。我們可以使用交叉驗(yàn)證來(lái)更好地估計(jì)估計(jì)器的性能?;叵胍幌碌谝徽拢總€(gè)交叉驗(yàn)證循環(huán)訓(xùn)練并測(cè)試數(shù)據(jù)的不同分區(qū),以減少可變性:2023/11/4LinearRegressionLesson3-42Thefollowingfigureshowstheoutputoftheprecedingcode:2023/11/4LinearRegressionLesson3-43Fittingmodelswithgradientdescent在本章的示例中,我們通過(guò)以下等式解析求解使成本函數(shù)最小化的模型參數(shù)值:回想一下,X是每個(gè)訓(xùn)練示例的解釋變量值的矩陣。XTX的點(diǎn)積得到一個(gè)維數(shù)為n×n的方陣,其中n等于解釋變量的個(gè)數(shù)。反演這個(gè)方陣的計(jì)算復(fù)雜度在解釋變量的數(shù)目上幾乎是立方的。此外,如果XTX的行列式等于零,則不能求逆。2023/11/4LinearRegressionLesson3-44Gradientdescent在本節(jié)中,我們將討論另一種有效估計(jì)模型參數(shù)最優(yōu)值的方法,稱(chēng)為梯度下降法。請(qǐng)注意,我們對(duì)良好擬合的定義沒(méi)有改變;我們?nèi)詫⑹褂锰荻认陆祦?lái)估計(jì)模型參數(shù)的值,這些參數(shù)使成本函數(shù)的值最小化。梯度下降有時(shí)被描述為一個(gè)蒙著眼睛的人試圖從山腰的某個(gè)地方找到通往山谷最低點(diǎn)的路。2023/11/4LinearRegressionLesson3-45形式上,梯度下降是一種優(yōu)化算法,可以用來(lái)估計(jì)函數(shù)的局部最小值。回想一下,我們使用的是殘差平方和成本函數(shù),它由以下等式給出:我們可以使用梯度下降法來(lái)尋找使成本函數(shù)值最小化的模型參數(shù)值。梯度下降通過(guò)計(jì)算每一步代價(jià)函數(shù)的偏導(dǎo)數(shù)迭代更新模型參數(shù)的值。2023/11/4LinearRegressionLesson3-46需要注意的是,梯度下降估計(jì)函數(shù)的局部最小值。對(duì)于所有可能的參數(shù)值,凸成本函數(shù)值的三維繪圖看起來(lái)就像一個(gè)碗。碗的底部是唯一的局部最小值。非凸代價(jià)函數(shù)可以有許多局部極小值,也就是說(shuō),它們的代價(jià)函數(shù)值的圖可以有許多峰和谷。梯度下降只能保證找到局部最小值;它會(huì)找到一個(gè)山谷,但不一定會(huì)找到最低的山谷。幸運(yùn)的是,代價(jià)函數(shù)的平方和是凸的。2023/11/4LinearRegressionLesson3-47Typesof
Gradientdescent梯度下降可以根據(jù)用于計(jì)算誤差的訓(xùn)練模式的數(shù)量而變化;這反過(guò)來(lái)又用于更新模型。用于計(jì)算誤差的模式數(shù)包括用于更新模型的梯度的穩(wěn)定性。我們將看到,在梯度下降配置中,計(jì)算效率和誤差梯度的保真度存在緊張關(guān)系。梯度下降的三種主要方式是批處理、隨機(jī)和小批量。2023/11/4LinearRegressionLesson3-48StochasticGradientDescent隨機(jī)梯度下降,通??s寫(xiě)為SGD,是梯度下降算法的一種變體,它計(jì)算誤差并更新訓(xùn)練數(shù)據(jù)集中每個(gè)例子的模型。每個(gè)訓(xùn)練樣本的模型更新意味著隨機(jī)梯度下降通常被稱(chēng)為在線(xiàn)機(jī)器學(xué)習(xí)算法。2023/11/4LinearRegressionLesson3-49StochasticGradientDescent正面頻繁的更新會(huì)立即深入了解模型的性能和改進(jìn)速度。這種梯度下降的變體可能是最容易理解和實(shí)現(xiàn)的,特別是對(duì)于初學(xué)者。增加模型更新頻率可以加快對(duì)某些問(wèn)題的學(xué)習(xí)。噪聲更新過(guò)程可以使模型避免局部極?。ㄈ邕^(guò)早收斂)2023/11/4LinearRegressionLesson3-50StochasticGradientDescentUpsides缺點(diǎn)如此頻繁地更新模型比其他梯度下降配置的計(jì)算成本更高,在大數(shù)據(jù)集上訓(xùn)練模型所需的時(shí)間明顯更長(zhǎng)。頻繁的更新會(huì)產(chǎn)生一個(gè)噪聲梯度信號(hào),這可能導(dǎo)致模型參數(shù)和模型誤差跳變(在訓(xùn)練階段具有更高的方差)。誤差梯度下的噪聲學(xué)習(xí)過(guò)程也會(huì)使算法難以確定模型的誤差最小值。2023/11/4LinearRegressionLesson3-51BatchGradientDescent批量梯度下降算法是梯度下降算法的一種變體,該算法計(jì)算訓(xùn)練數(shù)據(jù)集中每個(gè)示例的誤差,但只在評(píng)估完所有訓(xùn)練示例后更新模型。通過(guò)整個(gè)訓(xùn)練數(shù)據(jù)集的一個(gè)周期稱(chēng)為訓(xùn)練紀(jì)元。因此,通常說(shuō)成批梯度下降在每個(gè)訓(xùn)練周期結(jié)束時(shí)進(jìn)行模型更新。2023/11/4LinearRegressionLesson3-52BatchGradientDescent正面對(duì)模型的更新較少意味著這種梯度下降比隨機(jī)梯度下降在計(jì)算上更有效。降低更新頻率可以使誤差梯度更穩(wěn)定,并且在某些問(wèn)題上可能導(dǎo)致更穩(wěn)定的收斂。預(yù)測(cè)誤差計(jì)算和模型更新的分離使得該算法適用于基于并行處理的實(shí)現(xiàn)。2023/11/4LinearRegressionLesson3-53BatchGradientDescentUpsides缺點(diǎn)更穩(wěn)定的誤差梯度可能導(dǎo)致模型過(guò)早收斂到一組不太理想的參數(shù)。在訓(xùn)練周期結(jié)束時(shí)的更新需要在所有訓(xùn)練實(shí)例中累積預(yù)測(cè)誤差的額外復(fù)雜性。通常,批量梯度下降的實(shí)現(xiàn)方式是,它需要內(nèi)存中的整個(gè)訓(xùn)練數(shù)據(jù)集,并可用于算法。對(duì)于大型數(shù)據(jù)集,模型更新和訓(xùn)練速度可能會(huì)變得非常慢2023/11/4LinearRegressionLesson3-54Mini-BatchGradientDescent小批量梯度下降算法是梯度下降算法的一個(gè)變種,它將訓(xùn)練數(shù)據(jù)集分成小批量,用于計(jì)算模型誤差和更新模型系數(shù)。實(shí)現(xiàn)可以選擇在小批量上求和梯度,從而進(jìn)一步減小梯度的方差。小批量梯度下降尋求在隨機(jī)梯度下降的魯棒性和批量梯度下降的效率之間找到一個(gè)平衡點(diǎn)。它是在
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 合同收款方變更協(xié)議
- 工業(yè)熱水供應(yīng)合同協(xié)議
- 試用期簽合同協(xié)議
- 石材家具供銷(xiāo)合同協(xié)議
- 家庭教育講座
- 商家合作促銷(xiāo)協(xié)議書(shū)
- 靜脈治療護(hù)理技術(shù)操作規(guī)范行業(yè)標(biāo)準(zhǔn)
- 護(hù)士長(zhǎng)月護(hù)理質(zhì)量考核標(biāo)準(zhǔn)
- 股骨干骨折患者的護(hù)理
- 針灸推拿學(xué)的肩周炎康復(fù)療法
- 2025年第六屆美麗中國(guó)全國(guó)國(guó)家版圖知識(shí)競(jìng)賽題(附答案)
- 五星級(jí)酒店餐飲部管理制度大全
- 2025年紫金財(cái)產(chǎn)保險(xiǎn)股份有限公司招聘筆試參考題庫(kù)含答案解析
- 2025年高中作文素材積累:15個(gè)“小眾又萬(wàn)能”的人物素材
- 2025年春新人教版語(yǔ)文一年級(jí)下冊(cè)教學(xué)課件 11 浪花
- 水利工程信息化項(xiàng)目劃分表示例、單元工程質(zhì)量標(biāo)準(zhǔn)、驗(yàn)收應(yīng)提供的資料目錄
- 2025年安徽省水利水電勘測(cè)設(shè)計(jì)研究總院股份有限公司招聘筆試參考題庫(kù)附帶答案詳解
- 2025年行政執(zhí)法人員執(zhí)法資格考試必考題庫(kù)及答案(共232題)
- DB31∕T 360-2020 住宅物業(yè)管理服務(wù)規(guī)范
- 2024-2030年中國(guó)街舞培訓(xùn)行業(yè)發(fā)展趨勢(shì)及競(jìng)爭(zhēng)格局分析報(bào)告
- 2024年度中國(guó)鮮食玉米行業(yè)發(fā)展前景分析簡(jiǎn)報(bào)
評(píng)論
0/150
提交評(píng)論