![實驗40綜合實戰(zhàn)環(huán)境大數(shù)據(jù)_第1頁](http://file4.renrendoc.com/view/9898a1a5e77daac37eb22c0eaa1c9705/9898a1a5e77daac37eb22c0eaa1c97051.gif)
![實驗40綜合實戰(zhàn)環(huán)境大數(shù)據(jù)_第2頁](http://file4.renrendoc.com/view/9898a1a5e77daac37eb22c0eaa1c9705/9898a1a5e77daac37eb22c0eaa1c97052.gif)
![實驗40綜合實戰(zhàn)環(huán)境大數(shù)據(jù)_第3頁](http://file4.renrendoc.com/view/9898a1a5e77daac37eb22c0eaa1c9705/9898a1a5e77daac37eb22c0eaa1c97053.gif)
![實驗40綜合實戰(zhàn)環(huán)境大數(shù)據(jù)_第4頁](http://file4.renrendoc.com/view/9898a1a5e77daac37eb22c0eaa1c9705/9898a1a5e77daac37eb22c0eaa1c97054.gif)
![實驗40綜合實戰(zhàn)環(huán)境大數(shù)據(jù)_第5頁](http://file4.renrendoc.com/view/9898a1a5e77daac37eb22c0eaa1c9705/9898a1a5e77daac37eb22c0eaa1c97055.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
實驗四 要求實驗結(jié)束時,每位學(xué)生均已在服務(wù)器上運(yùn)行從2016年1月到6月這半24條環(huán)境數(shù)據(jù),所有2500多個城市如果均如此進(jìn)行記錄,那每天產(chǎn)生的數(shù)據(jù)量將本實驗中選取了2016年1月到6月這半的每小時天氣和空氣質(zhì)量數(shù)據(jù)(未N/A~]#more在服務(wù)器上執(zhí)行下列命令,查看環(huán)境數(shù)據(jù)文件beijing.txt,路徑在~]#more40-140-1種可以看到,我們需要關(guān)心的數(shù)據(jù)有第一列DATEHOUR、第六列TMP和第七列AQI。將數(shù)據(jù)文件上傳至~]#hadoopfs-mkdir~]#hadoopfs-put~/data/40/beijing.txt在beijing.txtHDFS的在Eclipse上新建MapReduce項目,命名為TmpStat,在 下新建文importimportimportorg.apachehadoop.conf.Configuration;importorg.apachehadoopfs.Path;importorg.apachehadoop.io.IntWritable;importorg.apachehadoop.io.Text;importorg.apachehadoopmapreduce.Job;importorg.apachehadoopmapreduce.Mapper;importorg.apachehadoopimportorg.apachehadoopmapreduce.lib.input.TextInputFormat;importorg.apachehadoopmapreduce.lib.output.TextOutputFormat;importorg.apachehadoopmapreduce.lib.partition.HashPartitioner;publicclass{publicstaticclassStatMapperextendsMapper<Object,Text,Text,{privateIntWritableintValue=newIntWritable();privateTextdateKey=newText();publicvoidmap(Objectkey,Textvalue,Contextcontext)throwsIOException,InterruptedException{String[]items=Stringdate=items[0];Stringtmp=dateKey.set(date.substring(0,6));context.write(dateKey,intValue);}}}{privateIntWritableresult=newpublicvoidreduce(Textkey,I ble<IntWritable>values,Contextcontext)throwsIOException,InterruptedException{inttmpsum=0;intcount=0;for(IntWritableval:{tmp_sum+=val.get();}inttmp_avg=tmp_sum/count;result.set(tmpavg);context.write(key,result);}}publicstaticvoidmain(StringthrowsIOException,ClassNotFoundException,{Configurationconf=newJobjob=newJob(conf,"MonthlyAvgTmpStat");Jobjob=newJob(conf,"MonthlyAvgTmpStat");TextInputFormat.setInputPaths(job,args[0]); pletion(true)?0:1);}}使用Eclipse軟件將TmpStat項目導(dǎo)出成Jar文件,指定主類為TmpStat,命名為tmpstat.jar,并上傳至服務(wù)器上。~]#hadoopjartmpstat.jar/input/monthlyavgtmp 在上執(zhí)行tmpstat.jar~]#hadoopjartmpstat.jar/input/monthlyavgtmp 40-2 ~]#hadoopfs-ls~]#hadoopfs-cat/monthlyavgtmp/part-r-40-3查看月平均氣溫統(tǒng)計結(jié)在Eclipse上新建MapReduce項目,命名為AqiStatDaily,在 下新建文importimportimportorg.apachehadoop.conf.Configuration;importorg.apachehadoop.fs.Path;importorg.apachehadoop.io.IntWritable;importorg.apachehadoop.io.Text;importorg.apachehadoop.mapreduce.Job;importorg.apachehadoop.mapreduce.Mapper;importorg.apachehadoop.mapreduce.Reducer;importorg.apachehadoop.mapreduce.lib.input.TextInputFormat;importorg.apachehadoop.mapreduce.lib.partition.HashPartitioner;publicclass{publicstaticclassStatMapperextendsMapper<Object,Text,Text,{privateIntWritableintValue=newIntWritable();privateTextdateKey=newText();publicvoidmap(Objectkey,Textvalue,Contextcontext)throwsIOException,InterruptedException{String[]items=Stringdate=items[0];Stringaqi=items[6];{context.write(dateKey,intValue);}}}publicstaticclassStatReducerextendsReducer<Text,IntWritable,Text,{privateIntWritableresult=newpublicvoidreduce(Textkey,I ble<IntWritable>values,Contextcontext)throwsIOException,InterruptedException{intaqi_sum=0;intcount=0;for(IntWritableval:{aqisum+=val.get();}intaqiavg=aqisum/count;context.write(key,result);}}publicstaticvoidmain(StringthrowsIOException,ClassNotFoundException,{Configurationconf=newConfiguration();Jobjob=newJob(conf,"AqiStatDaily");TextInputFormat.setInputPaths(job,args[0]);TextOutputFormat.setOutputPath(job,newPath(args[1])); pletion(true)?0:1);}}}使用Eclipse軟件將AqiStatDaily項目導(dǎo)出成Jar文件,指定主類為AqiStatDaily,命名為aqistatdaily.jar,并上傳至 ~]#hadoopjaraqistatdaily.jar/input/aqidaily 上執(zhí)行aqistatdaily.jar~]#hadoopjaraqistatdaily.jar/input/aqidaily 40-4在上查看統(tǒng)計結(jié)果文件。如圖40-5所示 ~]#hadoopfs-ls 40-5aqistatdaily.jar運(yùn)行結(jié)果文33~]#hadoopfs-cat 40-6~]#hadoopfs-cat/aqidaily/part-r-00000>~]#hadoopfs-cat/aqidaily/part-r-00001>>~]#hadoopfs-cat/aqidaily/part-r-00002>>~]#cataqidaily.txt|wc-在在HDFS上創(chuàng)建 ,并將aqidaily.txt上傳至 ~]#hadoopfs-mkdir~]#hadoopfs-putaqidaily.txt在Eclipse上新建MapReduce項目,命名為AqiStat,在 下新建文件importimportimportorg.apachehadoop.conf.Configuration;importorg.apachehadoopfs.Path;importorg.apachehadoop.io.IntWritable;importorg.apachehadoop.io.Text;importorg.apachehadoopmapreduce.Job;importorg.apachehadoopmapreduce.Mapper;importorg.apachehadoopimportorg.apachehadoopimportorg.apachehadoop.mapreduce.lib.output.TextOutputFormat;importorg.apachehadoop.mapreduce.lib.partition.HashPartitioner;publicclass{publicstaticfinalStringGOOD="優(yōu)";publicstaticfinalStringMODERATE良";publicstaticfinalStringLIGHTLY_POLLUTED="輕度污染";publicstaticfinalStringMODERA Y_POLLUTED="中度污染";publicstaticfinalStringHEAVILY_POLLUTED="重度污染";publicstaticfinalStringSEVERELY_POLLUTED="嚴(yán)重污染";publicstaticclassStatMapperextendsMapper<Object,Text,Text,{privatefinalstaticIntWritableone=newIntWritable(1);privateTextcond=newText();map方法,根據(jù)AQI值,將對應(yīng)空氣質(zhì)量的天數(shù)加publicvoidmap(Objectkey,Textvalue,Contextcontext)throwsIOException,InterruptedException{String[]items=value.toString().split("\t");intaqi=Integer.parseInt(items[1]);if(aqi<={//}elseif(aqi<={//}elseif(aqi<={//輕度污}elseif(aqi<={//中度污 Y}elseif(aqi<={//重度污}{//嚴(yán)重污}}}//reduce類,對相同的空氣質(zhì)量狀況,把它們<K,VList>中VList{privateIntWritableresult=newpublicvoidreduce(Textkey,I ble<IntWritable>values,Contextcontext)throwsIOException,InterruptedException{intsum=for(IntWritableval:{sum+=}}}publicstaticvoidmain(StringthrowsIOException,ClassNotFoundException,{Configurationconf=newConfiguration();Jobjob=newJob(conf,"AqiStat");TextInputFo
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年全球及中國DPO即服務(wù)行業(yè)頭部企業(yè)市場占有率及排名調(diào)研報告
- 山東省青島市高三第一次模擬考試語文試卷(含答案)
- 2025物業(yè)管理公司勞務(wù)合同
- 小額貸款居間合同范文
- 2025展板制作合同
- 連帶共同擔(dān)保合同簽訂
- 建設(shè)圍墻施工合同
- 提高團(tuán)隊效能與績效改進(jìn)
- 2025建筑工程居間合同
- 聘用人才勞動合同
- 旅居管家策劃方案
- 車間消防安全知識培訓(xùn)課件
- 勞動法概述勞動法與新經(jīng)濟(jì)業(yè)態(tài)的結(jié)合
- 華為經(jīng)營管理-華為的研發(fā)管理(6版)
- 鋰離子電池生產(chǎn)工藝流程圖
- 平衡計分卡-化戰(zhàn)略為行動
- 幼兒園小班下學(xué)期期末家長會PPT模板
- 礦山安全培訓(xùn)課件-地下礦山開采安全技術(shù)
- GB/T 6417.1-2005金屬熔化焊接頭缺欠分類及說明
- 《社會主義市場經(jīng)濟(jì)理論(第三版)》第七章社會主義市場經(jīng)濟(jì)規(guī)則論
- 《腰椎間盤突出》課件
評論
0/150
提交評論