大數據分析平臺系統(tǒng)開發(fā)_第1頁
大數據分析平臺系統(tǒng)開發(fā)_第2頁
大數據分析平臺系統(tǒng)開發(fā)_第3頁
全文預覽已結束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、大數據分析平臺系統(tǒng)開發(fā)大數據分析平臺系統(tǒng)開發(fā)公司馬小姐1、搭建大數據平臺離不開BI。在大數據之前,BI就已經存在很久了,簡單把大數據等同于BI,明顯是不恰當的。但兩者又是緊密關聯(lián)的,相輔相成的。BI是達成業(yè)務管理的應用工具,沒有BI,大數據就沒有了價值轉化的工具,就無法把數據的價值呈現(xiàn)給用戶,也就無法有效地支撐企業(yè)經營管理決策;大數據則是基礎,沒有大數據,BI就失去了存在的基礎,沒有辦法快速、實時、高效地處理數據,支撐應用。 所以,數據的價值發(fā)揮,大數據平臺的建設,必然是囊括了大數據處理與BI應用分析建設的。2、大數據擁有價值。來看看數據使用金字塔模型,從數據的使用角度來看,數據基本有以下使用

2、方式:自上而下,可以看到,對數據的要求是不一樣的:· 數據量越來越大,維度越來越多。· 交互難度越來越大。· 技術難度越來越大。· 以人為主,逐步向機器為主。· 用戶專業(yè)程度逐步提升,門檻越來越高。企業(yè)對數據、效率要求的逐步提高,也給大數據提供了展現(xiàn)能力的平臺。企業(yè)構建大數據平臺,歸根到底是構建企業(yè)的數據資產運營中心,發(fā)揮數據的價值,支撐企業(yè)的發(fā)展。整體方案思路如下:建設企業(yè)的基礎數據中心,構建企業(yè)統(tǒng)一的數據存儲體系,統(tǒng)一進行數據建模,為數據的價值呈現(xiàn)奠定基礎。同時數據處理能力下沉,建設集中的數據處理中心,提供強大的數據處理能力;通過統(tǒng)一的數據

3、管理監(jiān)控體系,保障系統(tǒng)的穩(wěn)定運行。有了數據基礎,構建統(tǒng)一的BI應用中心,滿足業(yè)務需求,體現(xiàn)數據價值。提到大數據就會提到hadoop。大數據并不等同于hadoop,但hadoop的確是最熱門的大數據技術。下面以最常用的混搭架構,來看一下大數據平臺可以怎么通過Kafka作為統(tǒng)一采集平臺的消息管理層,靈活的對接、適配各種數據源采集(如集成flume),提供靈活、可配置的數據采集能力。利用spark和hadoop技術,構建大數據平臺最為核心的基礎數據的存儲、處理能力中心,提供強大的數據處理能力,滿足數據的交互需求。同時通過sparkstreaming,可以有效滿足企業(yè)實時數據的要求,構建企業(yè)發(fā)展的實時

4、指標體系。同時為了更好的滿足的數據獲取需求,通過RDBMS,提供企業(yè)高度匯總的統(tǒng)計數據,滿足企業(yè)常規(guī)的統(tǒng)計報表需求,降低使用門檻。對大數據明細查詢需求,則通過構建HBase集群,提供大數據快速查詢能力,滿足對大數據的查詢獲取需求。一般的大數據平臺從平臺搭建到數據分析大概包括以下幾個步驟:1、Linux系統(tǒng)安裝一般使用開源版的Redhat系統(tǒng)-CentOS作為底層平臺。為了提供穩(wěn)定的硬件基礎,在給硬盤做RAID和掛載數據存儲節(jié)點的時,需要按情況配置。比如,可以選擇給HDFS的namenode做RAID2以提高其穩(wěn)定性,將數據存儲與操作系統(tǒng)分別放置在不同硬盤上,以確保操作系統(tǒng)的正常運行。2、分布式

5、計算平臺/組件安裝當前分布式系統(tǒng)的大多使用的是Hadoop系列開源系統(tǒng)。Hadoop的核心是HDFS,一個分布式的文件系統(tǒng)。在其基礎上常用的組件有Yarn、Zookeeper、Hive、Hbase、Sqoop、Impala、ElasticSearch、Spark等。使用開源組件的優(yōu)點:1)使用者眾多,很多bug可以在網上找的答案(這往往是開發(fā)中最耗時的地方);2)開源組件一般免費,學習和維護相對方便;3)開源組件一般會持續(xù)更新;4)因為代碼開源,如果出現(xiàn)bug可自由對源碼作修改維護。常用的分布式數據數據倉庫有Hive、Hbase。Hive可以用SQL查詢,Hbase可以快速讀取行。外部數據庫導

6、入導出需要用到Sqoop。Sqoop將數據從Oracle、MySQL等傳統(tǒng)數據庫導入Hive或Hbase。Zookeeper是提供數據同步服務, Impala是對hive的一個補充,可以實現(xiàn)高效的SQL查詢3、數據導入前面提到,數據導入的工具是Sqoop。它可以將數據從文件或者傳統(tǒng)數據庫導入到分布式平臺。4、數據分析數據分析一般包括兩個階段:數據預處理和數據建模分析。數據預處理是為后面的建模分析做準備,主要工作時從海量數據中提取可用特征,建立大寬表。這個過程可能會用到Hive SQL,Spark QL和Impala。數據建模分析是針對預處理提取的特征/數據建模,得到想要的結果。如前面所提到的,這一塊最好用的是Spark。常用的機器學習算法,如樸素貝葉斯、邏輯回歸

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論