




下載本文檔
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、HadoopHadoop【】【】Raid3Raid34556各各7數(shù)據(jù)塊的8數(shù)據(jù)塊的899建立pipeline依次將目標(biāo)數(shù)據(jù)塊寫入各個(gè)datanode建立pipeline依次將目標(biāo)數(shù)據(jù)塊寫入各個(gè)datanode可以在hdfs-site.xmlDatanodehdfs可以在hdfs-site.xmlDatanodehdfs#-*-coding:UTF-8-*- import sys #-*-coding:UTF-8-*- import sys if name = main /沒有按時(shí)發(fā)送心跳的datanodeI/O如果datanodenamenode會檢測沒有按時(shí)發(fā)送心跳的datanodeI/O
2、如果datanodenamenode會檢測Numberofminutesbet Numberofminutesbet ns.Ifzero, thetrash feature 在Hadoop2.x在Hadoop2.x注意,hadoop沒有當(dāng)前目錄的概念,也沒有cd注意,hadoop沒有當(dāng)前目錄的概念,也沒有cd上傳文件到上傳文件到設(shè)置sshdatanode和tasktracker(hadoop-daemon.sh設(shè)置sshdatanode和tasktracker(hadoop-daemon.shstart-all.shstart-all.shHDFSAPIHDFSAPIpublicRLCatsi
3、c publicicpublicRLCatsic publicicvoidmain(String args)throwsExceptionInputStreamin=try in = new URL(args0).openStream(); IOUtils.copyBytes(in,System.out,4096,false); finally 使到運(yùn)行javac,jps使到運(yùn)行javac,jps添加Java和Hadoopimport import添加Java和Hadoopimport import 編譯時(shí)指定編譯時(shí)指定build.xml propertyname=buildbuild.xml
4、 propertyname=buildlocation=buildproperty filesetincludename=*/*.jarfilesetincludename=*/*.jar續(xù) javacincludeantruntime=falsesrcdir=srcclasspath refid=hadoop-jarjarfile=續(xù) javacincludeantruntime=falsesrcdir=srcclasspath refid=hadoop-property name=classpath refid=hadoop-用ant用antpublicclassemo publicpub
5、licclassemo publicicvoidmain(Stringargs)throwsIOExceptionConfigurationconf=newFileSystemfs= Pathfile=續(xù)if(fs.exists(file)else/Writing toln(File 續(xù)if(fs.exists(file)else/Writing toln(File /Readingfrome toHDFSJava Stringdata=指南第3章“Theerface指南第3章“Theerface安裝yum-y installgccgcc-c+autoconf安裝yum-y installgc
6、cgcc-c+autoconf 測試HDFSCAPI:一段C測試HDFSCAPI:一段C/Followingis a libhdfsleadaptedfromthe src/c+/libhdfs/hdfs_write.cof the/Followingis a libhdfsleadaptedfromthe src/c+/libhdfs/hdfs_write.cof the Hadoopargc,char *argv)hdfsFSfs =if (!fs)f(stderr,Cannotconnectto char* fileName=char* message= size= eto HDFSC續(xù)
7、exists =hdfsExists(fs,if(exists-1)f(stdout,續(xù)exists =hdfsExists(fs,if(exists-1)f(stdout,File %sexists!n,/ Createand openfile forhdfsFile outFile = hdfsOpenFile(fs,fileName,O_WRONLY|O_CREAT,0, 0, if(!outFile)f(stderr,Failedto open%sforwriting!n,/writetohdfsWrite(fs,outFile,(void*)message,hdfsCloseFile
8、(fs,續(xù)/Openfile forhdfsFileinFile =hdfsOpenFile(fs,fileName,O_RDONLY,續(xù)/Openfile forhdfsFileinFile =hdfsOpenFile(fs,fileName,O_RDONLY,0, 0, if(!inFile)f(stderr,Failed to open%s for reading!n,char*data= malloc(sizeof(char)*/ Read fromtSize readSize= hdfsRead(fs,inFile, (void*)data,f(stdout,%sn,hdfsClos
9、eFile(fs,return 0;gcchdfs_cpp_demo.c-I$HADOOP_HOME/src/c+/libhdfsgcchdfs_cpp_demo.c-I$HADOOP_HOME/src/c+/libhdfs -L$HADOOP_HOME/c+/Linux-amd64-64/lib/-lhdfs-L$JAVA_HOME/jre/lib/amd64/server-ljvm-o利用ant利用ant64/lib:$JAVA_HOME/jre/lib/amd64/server./hdfs_cpp_demo64/lib:$JAVA_HOME/jre/lib/amd64/server./h
10、dfs_cpp_demoHadoop2.xHDFS Hadoop2.xHDFS BlockStorageService(1namenode服務(wù))提供datanodeBlockStorageService(1namenode服務(wù))提供datanode2:datanode1.xHDFS制在2.x1.xHDFS制在2.x多namenodes及datanodedatanode多namenodes及datanodedatanode塊池(Block每一個(gè)datanode為所有的block 塊池(Block每一個(gè)datanode為所有的block BlockIDblock一個(gè)Namenode datanod
11、e為其他Namenode1.x的Namenode2.xnamenode1.x的Namenode2.xnamenode Hash返一在分布式系統(tǒng)里常用采用ntSideMountHash返一在分布式系統(tǒng)里常用采用ntSideMountTablehdfs-c-hdfs-c-續(xù)nn-host2:rpc-續(xù)nn-host2:rpc-. Other commonconfigurationStep1clusterIdamenode -format -clusterId StepStep1clusterIdamenode -format -clusterId Step2clusterIdamenode-format -clusterIdhdfsdfsadmin-allowSnapshothdfsdfsadmin
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 知識產(chǎn)權(quán)的跨境保護(hù)策略及法律風(fēng)險(xiǎn)
- 洗衣合同續(xù)簽合同范本
- 校園科技活動策劃與實(shí)施案例分析
- 改造消防合同范本
- 科技中心對未來辦公模式的重塑與影響
- 石墨材料在電子商務(wù)中的營銷模式
- 短視頻營銷與網(wǎng)絡(luò)推廣的案例研究
- 煤礦空氣壓縮機(jī)司機(jī)職業(yè)技能理論考試題庫150題(含答案)
- 知識產(chǎn)權(quán)登記的未來趨勢與挑戰(zhàn)
- 2025年中央一號文件參考試題庫100題(含答案)
- 共享廚房項(xiàng)目計(jì)劃書
- 中石油加油站管理標(biāo)準(zhǔn)規(guī)范管理部分
- 北京市海淀區(qū)2024年七年級下學(xué)期數(shù)學(xué)期中考試試卷(附答案)
- 高中雷雨完整省公開課金獎(jiǎng)全國賽課一等獎(jiǎng)微課獲獎(jiǎng)?wù)n件
- 藥物超敏反應(yīng)綜合征并人類免疫缺陷病毒感染1例及文獻(xiàn)復(fù)習(xí)
- GB/T 43635-2024法庭科學(xué)DNA實(shí)驗(yàn)室檢驗(yàn)規(guī)范
- 《社區(qū)康復(fù)》課件-第五章 脊髓損傷患者的社區(qū)康復(fù)實(shí)踐
- 2024年01月北京市地質(zhì)礦產(chǎn)勘查院所屬事業(yè)單位招考聘用筆試歷年高頻考題(難、易錯(cuò)點(diǎn)薈萃)答案帶詳解附后
- 新產(chǎn)品開發(fā)(toshiba案例分析組)
- 網(wǎng)絡(luò)傳播概論(彭蘭第5版) 課件全套 第1-8章 網(wǎng)絡(luò)媒介的演變-網(wǎng)絡(luò)傳播中的“數(shù)字鴻溝”
- 4.1.1 有理數(shù)指數(shù)冪-參考課件
評論
0/150
提交評論