Hadoop組件簡介
安裝hbase
首先下載hbase的最新穩(wěn)定版本
http://www.apache.org/dyn/closer.cgi/hbase/
安裝到本地目錄中,我安裝的是當前用戶的hadoop/hbase中
tar -zxvf hbase-0.90.4.tar.gz
單機模式
修改配置文件
conf/hbase_env.sh
配置JDK的路徑
修改conf/hbase-site.xml
hbase.rootdir
file:///home/${user.name}/hbase-tmp
完成后啟動
bin/start-hbase.sh
啟動后
starting master, logging to/home/lgstar888/hadoop/hbase0.9/bin/../logs/hbase-lgstar888-master-ubuntu.out
然后執(zhí)行
bin/hbase shell
輸入status

如果輸入exit則退出
Hadoop與Google一樣,都是小孩命名的,是一個虛構的名字,沒有特別的含義。從計算機專業(yè)的角度看,Hadoop是一個分布式系統基礎架構,由Apache基金會開發(fā)。Hadoop的主要目標是對分布式環(huán)境下的“大數據”以一種可靠、高效、可伸縮的方式處理。設想一個場景,假如您需要grep一個100TB的大數據文件,按照傳統的方式,會花費很長時間,而這正是Hadoop所需要考慮的效率問題?! ?/p>
關于Hadoop的結構,有各種不同的說法。我們這里簡單的理解為Hadoop主要由三部分組成:HDFS(HadoopDistributed File System),MapReduce與Hbase。
1.Hadoop組件之一:HDFS分布式文件系統具有哪些優(yōu)點?
HDFS作為一種分布式文件系統,它和現有的分布式文件系統有很多共同點。比如,Hadoop文件系統管理的物理存儲資源不一定直接連接在本地節(jié)點上,而是通過計算機網絡與節(jié)點相連。對于Client端而言,HDFS就像一個傳統的分級文件系統,可以創(chuàng)建、刪除、移動或重命名文件等等。與此同時,HDFS與其他的分布式文件系統的區(qū)別也是顯而易見的。
首先,HDFS設計目標之一是適合運行在通用硬件(commodityhardware)上的分布式文件系統。HDFS假設的硬件錯誤不是異常,而是常態(tài)。因為HDFS面向的是成百上千的服務器集群,每臺服務器上存儲著文件系統的部分數據,并且這些機器的價格都很低廉。這就意味著總是有一部分硬件因各種原因而無法工作。因此,錯誤檢測和快速、自動的恢復是HDFS最核心的架構目標。從這個角度說,HDFS具有高度的容錯性。
第二,HDFS的另一個設計目標是支持大文件存儲。與普通的應用不同,HDFS應用具有很大的數據集,一個典型HDFS文件大小一般都在G字節(jié)至T字節(jié)。這就意味著HDFS應該能提供比較高的數據傳輸帶寬與數據訪問吞吐量。相應的,HDFS開放了一些POSIX的必須接口,容許流式訪問文件系統的數據。
第三,HDFS還要解決的一個問題是高數據吞吐量。HDFS采用的是“一次性寫,多次讀”這種簡單的數據一致性模型。換句話說,文件一旦建立后寫入,就不需要再更改了。網絡爬蟲程序就很適合使用這樣的模型。
第四,移動計算環(huán)境比移動數據劃算。HDFS提供了API,以便把計算環(huán)境移動到數據存儲的地方,而不是把數據傳輸到計算環(huán)境運行的地方。這對于數據大文件尤其適用,可以有效減少網絡的擁塞、提高系統的吞吐量。
HDFS的體系結構與工作流程
下面簡單看一下HDFS的結構。圖1所示為HDFS的體系結構圖。HDFS采用的是Master/Slave架構。
NameNode節(jié)點作為Master服務器,有三部分功能。第一:處理來自客戶端的文件訪問。第二:管理文件系統的命名空間操作,如'打開'、'關閉'、'重命名'等。第三:負責數據塊到數據節(jié)點之間的映射。從這個意義上說,它扮演中心服務器的角色。
DataNode節(jié)點作為Slave服務器,同樣有三部分功能。第一:管理掛載在節(jié)點上的存儲設備。第二:響應客戶端的讀寫請求。第三:從內部看,每個文件被分成一個或多個數據塊,被存放到一組DataNode,在Namenode的統一調度下進行數據塊的創(chuàng)建、刪除和復制。

圖1 HDFS體系結構圖
HDFS采用Java語言開發(fā),因此任何支持Java的機器都可以部署Namenode或Datanode。相應地,GNU/Linux操作系統支持Namenode與Datanode。一個典型的部署場景是,一臺GNU/Linux操作系統上運行一個Namenode實例,作為Master中心服務器。而集群中的其它GNU/Linux操作系統分別運行一個Datanode實例,作為Slave服務器集群。
2.Hadoop組件之二:什么是MapReduce編程模型,MapReduce的工作流程是什么?
MapReduce是一種編程模型,用于大規(guī)模數據集(大于1TB)的并行運算。MapReduce的設計目標是方便編程人員在不熟悉分布式并行編程的情況下,將自己的程序運行在分布式系統上。
MapReduce的命名規(guī)則由兩個術語組成,分別是Map(映射)與Reduce(化簡)。這些術語來自于列表處理語言,如:LISP,Scheme,或ML。從概念上來講,MapReduce將輸入元素列表(InputList)轉換成輸出元素列表(Output List),按照Map與Reduce規(guī)則各一次。
從MapReduce框架的實現角度看,MapReduce程序有著兩個組件:一個實現了Mapper,另一個實現了Reducer。
第一次叫Mapping,如圖2所示。MapReduce將InputList作為Mapping函數的輸入參數,經過處理,把結果返回給OutputList。舉例來說,有一個函數toUpper(str),用來返回輸入字符串的大寫版本。那么這里的InputList指的是轉換前的常規(guī)字符串列表,Mapping Function指的是toUpper函數,而OutputList指的是轉換后的大寫字符串列表。值得注意的是,在這里Mapping并沒有改變輸入字符串列表,而是返回一個新的字符串列表。

圖2 Map函數處理
第二次叫Reducing,如圖3所示。MapReduce將InputList作為Reducing函數的輸入參數,經過迭代處理,把這些數據匯集,返回一個輸出值給OutputValue。從這個意義上來說,Reducing一般用來生成”總結“數據,把大規(guī)模的數據轉變成更小的總結數據。例如,"+"可以用來作一個reducing函數,去返回輸入數據列表的值的總和。

圖3 Reduce函數處理
從工作流程來講,MapReduce對應的作業(yè)Job首先把輸入的數據集切分為若干獨立的數據塊,并由Map組件以Task的方式并行處理。處理結果經過排序后,依次輸入給Reduce組件,并且以Task的形式并行處理。MapReduce對應的輸入輸出數據由HDFS的DataNode存儲。MapReduce對應的Job部署在Master服務器,由MasterJobTracker負責Task的調度,監(jiān)控,重新執(zhí)行失敗的任務等等。MapReduce對應的Job部署在若干不同的Slave服務器,每個集群節(jié)點含一個slave TaskTracker,負責執(zhí)行由master指派的任務。
Hadoop框架由Java實現的,它提供了兩種主要工具。HadoopStreaming是一種運行作業(yè)的實用工具,它允許用戶創(chuàng)建和運行任何可執(zhí)行程序(例如:Shell工具)來做為mapper和reducer。Hadoop Pipes是一個與SWIG兼容的C++ API(沒有基于JNITM技術),它也可用于實現Map/Reduce應用程序。這樣,開發(fā)人員就可以利用MapReduce框架,開發(fā)分布式應用程序,運行在由上千個商用機器組成的大型集群上,并以一種可靠容錯的方式并行處理上T級別的數據集。
Hadoop為企業(yè)來帶了什么?
如今,“大數據”這一術語在IT經理人中變得越來越流行。美國國家海洋與大氣管理局NOAA利用“大數據”進行氣象、生態(tài)系統、天氣和商務研究?!都~約時報》使用“大數據”工具進行文本分析和Web信息挖掘。迪斯尼則利用它們關聯和了解跨不同商店、主題公園和Web資產的客戶行為。
“大數據”不僅適用于大型企業(yè),而是適用于各種不同規(guī)模的企業(yè)。例如,通過評估某位客戶在網站上的行為,來更好地了解他們需要什么支持或尋找什么產品,或者弄清當前天氣和其他條件對于送貨路線和時間安排的影響。
面對“大數據”,Hadoop為揭示深奧的企業(yè)與外部數據的關鍵內幕提供了基礎。從技術上看,Hadoop分布式文件系統(HDFS)保證了大數據的可靠存儲,而另一Hadoop核心組件MapReduce則提供高性能并行數據處理服務。這兩項服務提供了一個使對結構化和復雜“大數據”的快速、可靠分析變?yōu)楝F實的基礎。
Hadoop已經迅速成長為首選的、適用于非結構化數據的大數據分析解決方案。基于Hadoop、利用商品化硬件對海量的結構化和非結構化數據進行批處理,給數據分析領域帶來了深刻的變化。通過挖掘機器產生的非結構化數據中蘊藏的知識,企業(yè)可以做出更好的決策,促進收入增長,改善服務,降低成本。
Google與Hadoop有著千絲萬縷的聯系。如前所述,Hadoop主要是由HDFS、MapReduce和Hbase組成。而HDFS是Google File System(GFS)的開源實現,MapReduce是GoogleMapReduce的開源實現,HBase是GoogleBigTable的開源實現。Hadoop分布式框架很有創(chuàng)造性,而且有極大的擴展性,使得Google在系統吞吐量上有很大的競爭力。因此Apache基金會用Java實現了一個開源版本,支持Fedora、Ubuntu等Linux平臺。
考慮到Hadoop在應對大規(guī)模非結構型數據中所起到的重要作用,微軟也不得不放下架子,近日宣布開發(fā)一個兼容WindowsServer與Windows Azure平臺的Hadoop開源版本。
IBM宣布在Hadoop上建立新的存儲架構,作為群集運行DB2或Oracle數據庫,目的是讓應用程序,支持高性能分析,數據倉庫應用程序和云計算的目的。
EMC也推出了世界上第一個定制的、高性能的Hadoop專用數據協同處理設備——GreenplumHD數據計算設備,為客戶提供了最強大、最高效率的方法,充分挖掘大數據的價值。
互聯網搜索巨頭百度也在考慮使用Hadoop。不過,出于性能與安全的考慮,百度在采用Hadoop架構的時候,將Hadoop計算層進行了重新編寫。
總結:
Hadoop作為一種分布式基礎架構,可以使用戶在不了解分布式底層細節(jié)的情況下,開發(fā)分布式程序。
關于Hadoop的價值,思科的JamesUrquhart指出:“Hadoop可以說是不涉及任何現有專利的開源項目在企業(yè)軟件方面所取得的首個里程碑式成功?!痹跇I(yè)界,Hadoop也贏得“龐大數據問題的通用解決方案”的頭銜。我們不得不說,Hadoop前途不可估量。
相關文章
SpringBoot整合RabbitMQ實戰(zhàn)教程附死信交換機
這篇文章主要介紹了SpringBoot整合RabbitMQ實戰(zhàn)附加死信交換機,本文通過示例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2022-06-06
詳解在spring boot中配置多個DispatcherServlet
本篇文章主要介紹了詳解在spring boot中配置多個DispatcherServlet,具有一定的參考價值,有興趣的可以了解一下。2017-03-03
使用Spring的ApplicationEvent實現本地事件驅動的實現方法
本文介紹了如何使用Spring的ApplicationEvent實現本地事件驅動,通過自定義事件和監(jiān)聽器,實現模塊之間的松耦合,提升代碼的可維護性和擴展性。同時還介紹了異步事件和事件傳遞的相關知識2023-04-04
java中ThreadLocal和ThreadLocalMap淺析
這篇文章主要介紹了java中ThreadLocal和ThreadLocalMap淺析,ThreadLocal類用來設置線程私有變量?本身不儲存值?主要提供自身引用?和?操作ThreadLocalMap?屬性值得方法,需要的朋友可以參考下2023-09-09

