Hadoop MapReduce開(kāi)發(fā)最佳實(shí)踐_第1頁(yè)
Hadoop MapReduce開(kāi)發(fā)最佳實(shí)踐_第2頁(yè)
Hadoop MapReduce開(kāi)發(fā)最佳實(shí)踐_第3頁(yè)
Hadoop MapReduce開(kāi)發(fā)最佳實(shí)踐_第4頁(yè)
Hadoop MapReduce開(kāi)發(fā)最佳實(shí)踐_第5頁(yè)
已閱讀5頁(yè),還剩2頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

前言本文是Hadoop最佳實(shí)踐系列第二篇,上一篇為《Hadoop管理員的十個(gè)最佳實(shí)踐》。MapRuduce開(kāi)發(fā)對(duì)于大多數(shù)程序員都會(huì)覺(jué)得略顯復(fù)雜,運(yùn)行一個(gè)WordCount(Hadoop中helloword程序)不僅要熟悉MapRuduce模型,還要了解Linux命令(盡管有Cygwin,但在Windows下運(yùn)行MapRuduce仍然很麻煩),此外還要學(xué)習(xí)程序的打包、部署、提交job、調(diào)試等技能,這足以讓很多學(xué)習(xí)者望而退步。所以如何提高M(jìn)apReduce開(kāi)發(fā)效率便成了大家很關(guān)注的問(wèn)題。但Hadoop的Committer早已經(jīng)考慮到這些問(wèn)題,從而開(kāi)發(fā)了ToolRunner、MRunit(MapReduce最佳實(shí)踐第二篇中會(huì)介紹)、MiniMRCluster、MiniDFSCluster等輔助工具,幫助解決開(kāi)發(fā)、部署等問(wèn)題。舉一個(gè)自己親身的例子:某周一和搭檔(結(jié)對(duì)編程)決定重構(gòu)一個(gè)完成近10項(xiàng)統(tǒng)計(jì)工作的MapRuduce程序,這個(gè)MapReduce(從Spring項(xiàng)目移植過(guò)來(lái)的),因?yàn)橐蕾嘢pring框架(原生Spring,非SpringHadoop框架),導(dǎo)致性能難以忍受,我們決定將Spring從程序中剔除。重構(gòu)之前程序運(yùn)行是正確的,所以我們要保障重構(gòu)后運(yùn)行結(jié)果與重構(gòu)前一致。搭檔說(shuō),為什么我們不用TDD來(lái)完成這個(gè)事情呢?于是我們研究并應(yīng)用了MRunit,令人意想不到的是,重構(gòu)工作只用了一天就完成,剩下一天我們進(jìn)行用findbug掃描了代碼,進(jìn)行了集成測(cè)試。這次重構(gòu)工作我們沒(méi)有給程序帶來(lái)任何錯(cuò)誤,不但如此我們還擁有了可靠的測(cè)試和更加穩(wěn)固的代碼。這件事情讓我們很爽的同時(shí),也在思考關(guān)于MapReduce開(kāi)發(fā)效率的問(wèn)題,要知道這次重構(gòu)我們之前評(píng)估的時(shí)間是一周,我把這個(gè)事情分享到EasyHadoop群里,大家很有興趣,一個(gè)朋友問(wèn)到,你們的評(píng)估太不準(zhǔn)確了,為什么開(kāi)始不評(píng)估2天完成呢?我說(shuō)如果我們沒(méi)有使用MRUnit,真的是需要一周才能完成。因?yàn)橛兴鼏卧獪y(cè)試,我可以在5秒內(nèi)得到我本次修改的反饋,否則至少需要10分鐘(編譯、打包、部署、提交MapReduce、人工驗(yàn)證結(jié)果正確性),而且重構(gòu)是個(gè)反復(fù)修改,反復(fù)運(yùn)行,得到反饋,再修改、再運(yùn)行、再反饋的過(guò)程,MRunit在這里幫了大忙。相同智商、相同工作經(jīng)驗(yàn)的開(kāi)發(fā)人員,借助有效的工具和方法,竟然可以帶來(lái)如此大的開(kāi)發(fā)效率差距,不得不讓人驚詫!PS.本文基于Hadoop1.0(ClouderaCDH3uX)。本文適合讀者:Hadoop初級(jí)、中級(jí)開(kāi)發(fā)者。1.使用ToolRunner讓參數(shù)傳遞更簡(jiǎn)單關(guān)于MapReduce運(yùn)行和參數(shù)配置,你是否有下面的煩惱:將MapReduceJob配置參數(shù)寫到j(luò)ava代碼里,一旦變更意味著修改java文件源碼、編譯、打包、部署一連串事情。當(dāng)MapReduce依賴配置文件的時(shí)候,你需要手工編寫java代碼使用DistributedCache將其上傳到HDFS中,以便map和reduce函數(shù)可以讀取。當(dāng)你的map或reduce函數(shù)依賴第三方j(luò)ar文件時(shí),你在命令行中使用”-libjars”參數(shù)指定依賴jar包時(shí),但根本沒(méi)生效。其實(shí),Hadoop有個(gè)ToolRunner類,它是個(gè)好東西,簡(jiǎn)單好用。無(wú)論在《Hadoop權(quán)威指南》還是Hadoop項(xiàng)目源碼自帶的example,都推薦使用ToolRunner。下面我們看下src/example目錄下WordCount.java文件,它的代碼結(jié)構(gòu)是這樣的:publicclassWordCount{//略...publicstaticvoidmain(String[]args)throwsException{包列表最低下的“JRESystemLibrary”,雙擊”Accessrules”,在彈出窗口中點(diǎn)擊“add按鈕”,然后在新對(duì)話框中"Resolution"下拉框選擇"Accessible","RulePattern"填寫*/,保存后就OK了。如下圖:2.如何使用這個(gè)源碼項(xiàng)目呢?比如我知道Hadoop某個(gè)源碼文件的名稱,在eclipse中可以通過(guò)快捷鍵“Ctrl+Shift+R”調(diào)出查找窗口,輸入文件名,如“MapTask”,那可以打開(kāi)這個(gè)類的源碼了。還有個(gè)使用場(chǎng)景,當(dāng)我們編寫MapReduce程序的時(shí)候,我想直接打開(kāi)某個(gè)類的源碼,通過(guò)上面的操作還是有點(diǎn)麻煩,比如我想看看Job類是如何實(shí)現(xiàn)的,當(dāng)我點(diǎn)擊它的時(shí)候會(huì)出現(xiàn)下面的情景:解決辦法很簡(jiǎn)單:點(diǎn)擊圖中“AttachSource”按鈕->點(diǎn)擊“Workspace”按鈕->選擇剛才新建的Hadoop源碼項(xiàng)目。完成后源碼應(yīng)該就蹦出來(lái)了??偨Y(jié)一下,本實(shí)踐中我們獲得了什么功能:知道hadoop源碼文件名,快速找到該文件寫程序的時(shí)候直接查看Hadoop相關(guān)類源碼Debug程序的時(shí)候,可以直接進(jìn)入源碼查看并跟蹤運(yùn)行推薦指數(shù):★★★★推薦理由:通過(guò)源碼可以幫助我們更深入了解Hadoop,可以幫助我們解決復(fù)雜問(wèn)題3.正確使用壓縮算法下表資料引用cloudera官方網(wǎng)站的一篇博客,原文點(diǎn)這里。CompressionFileSize(GB)CompressionTime(s)DecompressionTime(s)Nonesome_logs8.0--Gzipsome_logs.gz1.324172LZOsome_logs.lzo2.05535上面表格與筆者集群實(shí)際環(huán)境測(cè)試結(jié)果一致,所以我們可以得出如下結(jié)論:LZO文件的壓縮和解壓縮性能要遠(yuǎn)遠(yuǎn)好于Gzip文件。相同文本文件,使用Gzip壓縮可以比LZO壓縮大幅減少磁盤空間。上面的結(jié)論對(duì)我們有什么幫助呢?在合適的環(huán)節(jié)使用合適壓縮算法。在中國(guó)的帶寬成本是非常貴的,費(fèi)用上要遠(yuǎn)遠(yuǎn)高于美國(guó)、韓國(guó)等國(guó)家。所以在數(shù)據(jù)傳輸環(huán)節(jié),我們希望使用了Gzip算法壓縮文件,目的是減少文件傳輸量,降低帶寬成本。使用LZO文件作為MapReduce文件的輸入(創(chuàng)建lzoindex后是支持自動(dòng)分片輸入的)。對(duì)于大文件,一個(gè)maptask的輸入將變?yōu)橐粋€(gè)block,而不是像Gzip文件一樣讀取整個(gè)文件,這將大幅提升MapReduce運(yùn)行效率。主流傳輸工具FlumeNG和scribe默認(rèn)都是非壓縮傳輸?shù)模ǘ际峭ㄟ^(guò)一行日志一個(gè)event進(jìn)行控制的),這點(diǎn)大家在使用時(shí)要注意。FlumeNG可以自定義組件方式實(shí)現(xiàn)一次傳輸多條壓縮數(shù)據(jù),然后接收端解壓縮的方式來(lái)實(shí)現(xiàn)數(shù)據(jù)壓縮傳輸,scribe沒(méi)有使用過(guò)不評(píng)論。另外值得一提的就是snappy,它是由Google開(kāi)發(fā)并開(kāi)源的壓縮算法的,是Cloudera官方大力提倡在MapReduce中使用的壓縮算法。它的特點(diǎn)是:與LZO文件相近的壓縮率的情況下,還可以大幅提升壓縮和解壓縮性能,但是它作為MapReduce輸入是不可以分割的。延伸內(nèi)容:Cloudera官方Blog對(duì)Snappy介紹:/blog/2011/09/snappy-and-hadoop/老外上傳的壓縮算法性能測(cè)試數(shù)據(jù):/SFaNzRuf推薦指數(shù):★★★★★推薦理由:壓縮率和壓縮性能一定程度是矛盾體,如何均衡取決于應(yīng)用場(chǎng)景。使用合適壓縮算法直接關(guān)系到老板的錢,如果能夠節(jié)省成本,體現(xiàn)程序員的價(jià)值。4.在合適的時(shí)候使用Combinermap和reduce函數(shù)的輸入輸出都是key-value,Combiner和它們是一樣的。作為map和reduce的中間環(huán)節(jié),它的作用是聚合maptask的磁盤,減少map端磁盤寫入,減少reduce端處理的數(shù)據(jù)量,對(duì)于有大量shuffle的job來(lái)說(shuō),性能往往取決于reduce端。因?yàn)閞educe端要經(jīng)過(guò)從map端copy數(shù)據(jù)、reduce端歸并排序,最后才是執(zhí)行reduce方法,此時(shí)如果可以減少maptask輸出將對(duì)整個(gè)job帶來(lái)非常大的影響。什么時(shí)候可以使用Combiner?比如你的Job是WordCount,那么完全可以通過(guò)Combiner對(duì)map函數(shù)輸出數(shù)據(jù)先進(jìn)行聚合,然后再將Combiner輸出的結(jié)果發(fā)送到reduce端。什么時(shí)候不能使用Combiner?WordCount在reduce端做的是加法,如果我們r(jià)educe需求是計(jì)算一大堆數(shù)字的平均數(shù),則要求reduce獲取到全部的數(shù)字進(jìn)行計(jì)算,才可以得到正確值。此時(shí),是不能使用Combiner的,因?yàn)闀?huì)其會(huì)影響最終結(jié)果。注意事項(xiàng):即使設(shè)置Combiner,它也不一定被執(zhí)行(受參數(shù)bine影響),所以使用Combiner的場(chǎng)景應(yīng)保證即使沒(méi)有Combiner,我們的MapReduce也能正常運(yùn)行。推薦指數(shù):★★★★★推薦理由:在合適的場(chǎng)景使用Combiner,可以大幅提升MapReduce性能。5.通過(guò)回調(diào)通知知道MapReduce什么時(shí)候完成你知道什么時(shí)候MapReduce完成嗎?知道它執(zhí)行成功或是失敗嗎?Hadoop包含job通知這個(gè)功能,要使用它非常容易,借助我們實(shí)踐一的ToolRunner,在命令行里面就可以進(jìn)行設(shè)置,下面是一個(gè)例子:hadoopjarMyJob.jarcom.xxx.MyJobDriver\-Djob.end.notification.url=http://moniter/mapred_notify/\$jobId/\$jobStatus通過(guò)上面的參數(shù)設(shè)置后,當(dāng)MapReduce完成后將會(huì)回調(diào)我參數(shù)中的接口。其中$jobId和$jobStatus會(huì)自動(dòng)被實(shí)際值代替。上面在$jobId和$jobStatus兩個(gè)變量前,我添加了shell中的轉(zhuǎn)義符”\”,如果使用java代碼設(shè)置該參數(shù)是不需要轉(zhuǎn)義符的??偨Y(jié)下:看看我們通過(guò)該實(shí)踐可以獲得什么?獲取MapReduce運(yùn)行時(shí)間和回調(diào)完成時(shí)間,可以分析最耗時(shí)Job,最快完成Job。通過(guò)MapReduce運(yùn)行狀態(tài)(包括成功、失敗、Kill),可以第一時(shí)間發(fā)現(xiàn)錯(cuò)誤,并通知運(yùn)維。通過(guò)獲取MapReduce完成時(shí)間,可以第一時(shí)間通過(guò)用戶,數(shù)據(jù)已經(jīng)計(jì)算完成,提升用戶體驗(yàn)Hadoop這塊功能的源碼文件是JobEndNotifier.java,可以馬上通過(guò)本文實(shí)踐二看看究竟。其中下面兩個(gè)參數(shù)就是我通過(guò)翻源碼的時(shí)候發(fā)現(xiàn)的,如果希望使用該實(shí)踐趕緊通過(guò)ToolRunner設(shè)置上吧(別忘了加-D,格式是-Dkey=value)。job.end.retry.attempts//設(shè)置回調(diào)通知retry次數(shù)erval//設(shè)置回調(diào)時(shí)間間隔,單位毫秒當(dāng)然如果hadoop沒(méi)有提供Job狀態(tài)通知的功能,我們也可以通過(guò)采

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論