版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
1、數(shù)據(jù)挖掘?qū)嶒瀳蟾?PAGE PAGE 13基于weka的數(shù)據(jù)(shj)分類分析實驗報告(bogo)1實驗(shyn)基本內(nèi)容本實驗的基本內(nèi)容是通過使用weka中的三種常見分類和聚類方法(決策樹J48、KNN和k-means)分別在訓練數(shù)據(jù)上訓練出分類模型,并使用校驗數(shù)據(jù)對各個模型進行測試和評價,找出各個模型最優(yōu)的參數(shù)值,并對三個模型進行全面評價比較,得到一個最好的分類模型以及該模型所有設(shè)置的最優(yōu)參數(shù)。最后使用這些參數(shù)以及訓練集和校驗集數(shù)據(jù)一起構(gòu)造出一個最優(yōu)分類器,并利用該分類器對測試數(shù)據(jù)進行預測。2數(shù)據(jù)的準備及預處理2.1格式轉(zhuǎn)換方法(1)打開“data02.xls” 另存為CSV類型,得到“
2、data02.csv”。 (2)在WEKA中提供了一個“Arff Viewer”模塊,打開一個“data02.csv”進行瀏覽,然后另存為ARFF文件,得到“data02.arff”。 。3. 實驗過程及結(jié)果截圖3.1決策樹分類(1)決策樹分類用“Explorer”打開數(shù)據(jù)“data02.arff”,然后切換到“Classify”。點擊“Choose”,選擇算法“trees-J48”,再在“Test options”選擇“Cross-validation(Flods=10)”,點擊“Start”,開始運行。系統(tǒng)默認trees-J48決策樹算法中minNumObj=2,得到(d do)如下結(jié)果=
3、 Summary =Correctly Classified Instances 23 88.4615 %Incorrectly Classified Instances 3 11.5385 %Kappa statistic 0.7636Mean absolute error 0.141 Root mean squared error 0.3255Relative absolute error 30.7368 %Root relative squared error 68.0307 %Total Number of Instances 26 = Detailed Accuracy By Cla
4、ss = TP Rate FP Rate Precision Recall F-Measure ROC Area Class 0.824 0 1 0.824 0.903 0.892 N 1 0.176 0.75 1 0.857 0.892 YWeighted Avg. 0.885 0.061 0.913 0.885 0.887 0.892= Confusion Matrix = a b - classified as 14 3 | a = N 0 9 | b = Y使用(shyng)不同的參數(shù)準確率比較:minNumObj2345Correctly Classified Instances23
5、(88.4615 %)22(84.6154 %)23(88.4615 %)23(88.4615 %)由上表(shn bio),可知minNumObj為2時,準確率最高。根據(jù)(gnj)測試數(shù)集,利用準確率最高的模型得到的結(jié)果: 分析(fnx)說明:在用J48對數(shù)據(jù)集進行分類時采用了10折交叉(jioch)驗證(Folds=10)來選擇和評估模型,其中屬性值有兩個Y,N。一部分結(jié)果如下:Correctly Classified Instances 23 88.4615 %Incorrectly Classified Instances 3 11.5385 %= Confusion Matrix =
6、 a b - classified as 14 3 | a = N 0 9 | b = Y這個(zh ge)矩陣是說,原來是“Y”的實例,有14個被正確的預測為“Y”,有3個錯誤的預測成了“N”。原本是“NO”的實例有0個被正確的預測成為“Y”,有9個正確的預測成了“N”?!?4+3+0+9=26”是實例的總數(shù),而(14+9)/ 26=0.884615正好是正確分類的實例所占比例。這個矩陣對角線上的數(shù)字越大,說明預測得越好。(2)K最近鄰分類算法用“Explorer”打開數(shù)據(jù)“data02.arff”,然后切換到“Classify”。點擊“Choose”,選擇算法“l(fā)azy-IBk”,再在“T
7、est options”選擇“Cross-validation(Flods=10)”,點擊“Start”,開始運行。訓練結(jié)果:系統(tǒng)默認(mrn)lazy-IBk K最近鄰分類算法中KNN=1,得到如下結(jié)果= Summary =Correctly Classified Instances 20 76.9231 %Incorrectly Classified Instances 6 23.0769 %Kappa statistic 0.4902Mean absolute error 0.252 Root mean squared error 0.4626Relative absolute erro
8、r 54.9136 %Root relative squared error 96.694 %Total Number of Instances 26 = Detailed Accuracy By Class = TP Rate FP Rate Precision Recall F-Measure ROC Area Class 0.824 0.333 0.824 0.824 0.824 0.768 N 0.667 0.176 0.667 0.667 0.667 0.768 YWeighted Avg. 0.769 0.279 0.769 0.769 0.769 0.768= Confusion
9、 Matrix = a b - classified as 14 3 | a = N 3 6 | b = Y使用不同(b tn)的參數(shù)準確率比較:KNN1234Correctly Classified Instances20(76.9231 %)19(73.0769%)23(88.4615 %)20(76.9231 %)由上表(shn bio),可知KNN為3時,準確率最高。根據(jù)測試(csh)數(shù)集,利用準確率最高的模型得到的結(jié)果:分析(fnx)說明:在用lazy-Ibk(KNN=3)對數(shù)據(jù)集進行分類時采用了10折交叉驗證(ynzhng)(Folds=10)來選擇和評估模型,其中屬性值有兩個Y,
10、N。一部分結(jié)果如下:= Summary =Correctly Classified Instances 23 88.4615 %Incorrectly Classified Instances 3 11.5385 %= Confusion Matrix = a b - classified as 16 1 | a = N 2 7 | b = Y這個矩陣是說,原來(yunli)是“Y”的實例,有16個被正確(zhngqu)的預測為“Y”,有1個錯誤的預測成了“N”。原本是“NO”的實例有2個被正確的預測成為“Y”,有9個正確的預測成了“7”?!?6+1+2+7=26”是實例的總數(shù),而(16+7)
11、/ 26=0.884615正好是正確分類的實例所占比例。二、對“data01” 進行聚類分析1.數(shù)據(jù)格式的轉(zhuǎn)換(1)打開“data01.xls” 另存為CSV類型,得到“data01.csv”。 (2)在WEKA中提供了一個“Arff Viewer”模塊,打開一個“data01.csv”進行瀏覽,然后另存為ARFF文件,得到“data01.arff”。 2.聚類過程用“Explorer”打開數(shù)據(jù)“data01.arff”,然后切換到“Cluster”。點擊“Choose”,選擇算法“SimpleKMeans(numClusters=6,seed=200),再在“Test options”選擇“
12、Use training set”,點擊“Start”,開始運行。訓練結(jié)果:采用(ciyng)simpleKMeans算法,其中numClusters=6,seed=100,得到(d do)如下結(jié)果:Number of iterations: 3Within cluster sum of squared errors: 6.065322314450069(平方(pngfng)誤差之和)Clustered InstancesClustered Instances0 4 ( 15%)1 3 ( 12%)2 4 ( 15%)3 3 ( 12%)4 2 ( 8%)5 10 ( 38%)(各類的包含的實
13、例個數(shù)以及占總實例的百分比)說明(shumng):其中(qzhng)當seed的取值越大,平方(pngfng)誤差之和越小。在這次實驗(shyn)seed=100,得到:Within cluster sum of squared errors: 6.065322314450069.這是評價聚類好壞的標準,數(shù)值越小說明同一簇實例之間的距離就越小。接下來“Cluster centroids”:列出了各個簇中心的位置:Attribute Full Data 0 1 2 3 4 5 (26) (4) (3) (4) (3) (2) (10)=sample 13.5 22.5 4.6667 20.5 1
14、4.6667 4.5 11.2old-year 48.0769 65.75 59.3333 50.5 25 56.5 41.9VEGF 1.9231 2.75 2.3333 2 2.6667 3 1MVC 102.1538 126.45 100.6667 127.4 88.2667 104 86.58cancer-grade 2.5769 3.75 2 3 3.3333 3.5 1.7cancer-stage 2.1538 3.25 1.3333 3 2.3333 3.5 1.3cancer metastasis N Y N N Y Y N最后“Clustered Instances”列出了各個簇中實例的數(shù)目及百分比:Clustered Instances0 4 ( 15%)1 3 ( 12%)2 4 ( 15%)3 3 ( 12%)4 2 ( 8%)5 10 ( 38%)(各類的包含的實例個數(shù)以及占總實例的百分比)三、根據(jù)提供的“data02”進行關(guān)聯(lián)分析由于程序和系統(tǒng)故障,所以不能正確的進行關(guān)聯(lián)分析 5.實驗(shyn)總結(jié)本次實驗進行比較順利,使我對如何在Weka中進行分類分析有了更深刻的了解,對Weka中進行分類分析
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 沈陽理工大學《環(huán)境設(shè)計》2023-2024學年第一學期期末試卷
- 全國統(tǒng)考2024高考歷史一輪復習第九單元20世紀世界經(jīng)濟體制的創(chuàng)新與世界經(jīng)濟全球化趨勢第27講古代中國的科學技術(shù)與文學藝術(shù)課時作業(yè)含解析新人教版
- 煤礦應急應急救援
- 2024年合作小車客運從業(yè)資格證考試
- 2024年畢節(jié)道路客運從業(yè)資格證考試
- 美食廣場租賃管理合同附件
- 2024標準房屋租賃合同書(常用版)
- 2024二手車分期付款合同
- 衛(wèi)生部臨床檢驗中心詳解
- 2024建筑工程鋼筋承包合同書格式
- 人工智能的好處和壞處
- 旅游學概論(郭勝 第五版) 課件 第5、6章 旅游業(yè)、旅游市場
- 安全隱患規(guī)范依據(jù)查詢手冊22大類12萬字
- 外科病例分析
- 一年級10以內(nèi)口算100道題(共20套)-直接打印版
- 小學教學整改方案及措施
- 中華民族共同體概論課件專家版6第六講 五胡入華與中華民族大交融(魏晉南北朝)
- 《歐洲民間故事》測試題
- 儲能電站安全教育培訓
- 課程教學與課程思政內(nèi)容融合
- 2024中小企業(yè)ESG信息披露指南
評論
0/150
提交評論