docker 搭建hadoop以及hbase集群詳解
要用docker搭建集群,首先需要構(gòu)造集群所需的docker鏡像。構(gòu)建鏡像的一種方式是,利用一個已有的鏡像比如簡單的linux系統(tǒng),運(yùn)行一個容器,在容器中手動的安裝集群所需要的軟件并進(jìn)行配置,然后commit容器到新的鏡像。另一種方式是,使用Dockerfile來自動化的構(gòu)造鏡像。
下面采用第二種.
1. 創(chuàng)建帶ssh服務(wù)的ubuntu14.04系統(tǒng)鏡像
使用ubuntu14系統(tǒng)來安裝hadoop和hbase,由于hadoop集群機(jī)器之間通過ssh通信,所以需要在ubuntu14系統(tǒng)中安裝ssh服務(wù)。
編寫Dockerfile如下:
############################################ # version : debugman007/ssh:v1 # desc : ubuntu14.04 上安裝的ssh ############################################ # 設(shè)置繼承自ubuntu14.04官方鏡像 FROM ubuntu:14.04 # 下面是一些創(chuàng)建者的基本信息 MAINTAINER debugman007 (skc361@163.com) RUN rm -vf /var/lib/apt/lists/* RUN apt-get update RUN apt-get install -y openssh-server openssh-client vim wget curl sudo #添加用戶 test,設(shè)置密碼為 test, 賦予sudo權(quán)限 RUN useradd -m test RUN echo "test:test" | chpasswd RUN cd /etc/sudoers.d && touch nopasswdsudo && echo "test ALL=(ALL) ALL" >> nopasswdsudo #把test用戶的shell改成bash,否則ssh登錄ubuntu服務(wù)器,命令行不顯示用戶名和目錄 RUN usermod -s /bin/bash test RUN echo "root:root" | chpasswd #配置ssh RUN mkdir /var/run/sshd RUN sed -i 's/PermitRootLogin prohibit-password/PermitRootLogin yes/' /etc/ssh/sshd_config RUN sed 's@session\s*required\s*pam_loginuid.so@session optional pam_loginuid.so@g' -i /etc/pam.d/sshd ENV NOTVISIBLE "in users profile" RUN echo "export VISIBLE=now" >> /etc/profile EXPOSE 22 USER test RUN ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa RUN cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys USER root RUN ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa RUN cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
創(chuàng)建好的系統(tǒng)鏡像位于:https://hub.docker.com/r/debugman007/ubt14-ssh/
Dockerfile 位于:https://github.com/gtarcoder/dockerfiles/blob/master/ubt14-ssh/Dockerfile
2. 創(chuàng)建hadoop和hbase基本鏡像
編寫Dockerfile如下:
############################################ # version : debugman007/ubt14-hadoop-hbase:v1 # desc : ubuntu上安裝的ssh,java, hadoop ############################################ FROM debugman007/ubt14-ssh:v1 # 下面是一些創(chuàng)建者的基本信息 MAINTAINER debugman007 (skc361@163.com) #為hadoop集群提供dns服務(wù) RUN sudo apt-get -y install dnsmasq #安裝和配置java環(huán)境 #RUN yum -y install java-1.7.0-openjdk* ADD http://mirrors.linuxeye.com/jdk/jdk-7u80-linux-x64.tar.gz /usr/local/ RUN cd /usr/local && tar -zxvf jdk-7u80-linux-x64.tar.gz && rm -f jdk-7u80-linux-x64.tar.gz ENV JAVA_HOME /usr/local/jdk1.7.0_80 ENV CLASSPATH ${JAVA_HOME}/lib/dt.jar:$JAVA_HOME/lib/tools.jar ENV PATH $PATH:${JAVA_HOME}/bin #安裝和配置 hadoop RUN groupadd hadoop RUN useradd -m hadoop -g hadoop RUN echo "hadoop:hadoop" | chpasswd ADD http://www-eu.apache.org/dist/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz /usr/local/ RUN cd /usr/local && tar -zxvf hadoop-2.7.3.tar.gz && rm -f hadoop-2.7.3.tar.gz RUN chown -R hadoop:hadoop /usr/local/hadoop-2.7.3 RUN cd /usr/local && ln -s ./hadoop-2.7.3 hadoop ENV HADOOP_PREFIX /usr/local/hadoop ENV HADOOP_HOME /usr/local/hadoop ENV HADOOP_COMMON_HOME /usr/local/hadoop ENV HADOOP_HDFS_HOME /usr/local/hadoop ENV HADOOP_MAPRED_HOME /usr/local/hadoop ENV HADOOP_YARN_HOME /usr/local/hadoop ENV HADOOP_CONF_DIR /usr/local/hadoop/etc/hadoop ENV PATH ${HADOOP_HOME}/bin:$PATH ADD http://www-eu.apache.org/dist/hbase/1.2.4/hbase-1.2.4-bin.tar.gz /usr/local/ RUN cd /usr/local && tar -zxvf hbase-1.2.4-bin.tar.gz && rm -f hbase-1.2.4-bin.tar.gz RUN chown -R hadoop:hadoop /usr/local/hbase-1.2.4 RUN cd /usr/local && ln -s ./hbase-1.2.4 hbase ENV HBASE_HOME /usr/local/hbase ENV PATH ${HBASE_HOME}/bin:$PATH RUN echo "hadoop ALL= NOPASSWD: ALL" >> /etc/sudoers USER hadoop RUN ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa RUN cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
創(chuàng)建好的鏡像位于:https://hub.docker.com/r/debugman007/ubt14-hadoop-hbase/
Dockerfile 位于:https://github.com/gtarcoder/dockerfiles/blob/master/ubt14-hadoop-hbase/Dockerfile
3. 給hadoop,hbase鏡像進(jìn)行配置
Dockerfile 如下:
############################################ # version : debugman007/ubt14-hadoop-hbase:master # desc : ubuntu上安裝的ssh,java, hadoop, hbase ############################################ FROM debugman007/ubt14-hadoop-hbase:base # 下面是一些創(chuàng)建者的基本信息 MAINTAINER debugman007 (skc361@163.com) ADD hadoop-env.sh $HADOOP_HOME/etc/hadoop/ ADD mapred-env.sh $HADOOP_HOME/etc/hadoop/ ADD yarn-env.sh $HADOOP_HOME/etc/hadoop/ ADD core-site.xml $HADOOP_HOME/etc/hadoop/ ADD hdfs-site.xml $HADOOP_HOME/etc/hadoop/ ADD mapred-site.xml $HADOOP_HOME/etc/hadoop/ ADD yarn-site.xml $HADOOP_HOME/etc/hadoop/ ADD slaves $HADOOP_HOME/etc/hadoop/ ADD hbase-env.sh $HBASE_HOME/conf/ ADD hbase-site.xml $HBASE_HOME/conf/ ADD regionservers $HBASE_HOME/conf/ USER hadoop RUN sudo mkdir -p /opt/hadoop/data/zookeeper RUN sudo chown -R hadoop:hadoop $HADOOP_HOME/etc/hadoop RUN sudo chown -R hadoop:hadoop $HBASE_HOME/conf RUN sudo chown -R hadoop:hadoop /opt/hadoop RUN sudo chown -R hadoop:hadoop /home/hadoop COPY bootstrap.sh /home/hadoop/ RUN chmod 766 /home/hadoop/bootstrap.sh ENTRYPOINT ["/home/hadoop/bootstrap.sh"] CMD ["/bin/bash"]
除了Dockerfile文件,還需要hadoop和hbase的一些配置文件,包括 core-site.xml, hadoop-env.sh, hbase-env.sh, hbase-site.xml, hdfs-site.xml, mapred-env.sh, regionservers, slaves, yarn-env.sh, yarn-site.xml等。
創(chuàng)建好的鏡像位于:https://hub.docker.com/r/debugman007/ubt14-hadoop-hbase/
Dockerfile以及配置文件位于:https://github.com/gtarcoder/dockerfiles/tree/master/ubt14-hadoop-hbase-v1
4. 啟動
(1)啟動一個容器作為hadoop master節(jié)點(diǎn):
docker run -it --name hadoop-master -h hadoop-master -d -P -p 50070:50070 -p 8088:8088 debugman007/ubt14-hadoop-hbase:v1
(2)啟動三個容器作為hadop slave節(jié)點(diǎn)
docker run -it --name hadoop-slave1 -h hadoop-slave1 debugman007/ubt14-hadoop-hbase:v1
三個容器名和容器內(nèi)的主機(jī)名分別設(shè)為 hadoop-slave1, hadoop-slave2, hadoop-slave3.
(3)設(shè)置各個節(jié)點(diǎn)的/etc/hosts文件
編輯一個run_hosts.sh 腳本文件,用來設(shè)置各個節(jié)點(diǎn)的名稱解析。假設(shè)hadoop-master容器內(nèi)的IP地址為10.0.1.2, hadoop-slave1/2/3 的IP地址分別為10.0.1.3/4/5.
#!/bin/bash echo 10.0.1.2 hadoop-master >> /etc/hosts echo 10.0.1.3 hadoop-slave1 >> /etc/hosts echo 10.0.1.4 hadoop-slave2 >> /etc/hosts echo 10.0.1.5 hadoop-slave3 >> /etc/hosts echo 10.0.1.3 regionserver1 >> /etc/hosts #hbase的regionserver服務(wù)器 echo 10.0.1.4 regionserver2 >> /etc/hosts
在hadoop-master和hadoop-salve1/2/3容器中都執(zhí)行該腳本。
(4)進(jìn)入hadoop-master容器
docker exec -it hadoop-master bash
然后在容器內(nèi) /usr/local/hadoop/sbin 目錄下執(zhí)行:
hdfs namenode -format ./start-dfs.sh ./start-yarn.sh
啟動hadoop服務(wù)。
在容器內(nèi)執(zhí)行 start-hbase.sh 啟動hbase服務(wù)。
(5)在 hadoop-master 節(jié)點(diǎn)和hadoop-slave節(jié)點(diǎn)內(nèi)查看服務(wù)是否正常啟動
在各個節(jié)點(diǎn)容器內(nèi)都執(zhí)行 jps 查看,發(fā)現(xiàn)在mster節(jié)點(diǎn)中出現(xiàn)
Jps, ResourceManager, NameNode, SecondaryNamenode, HMaster等服務(wù);
在slave節(jié)點(diǎn)中出現(xiàn) Jps, DataNode, NodeManager, HRegionServer等服務(wù)。
出現(xiàn)以上服務(wù),說明集群正常啟動。
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Docker容器導(dǎo)致磁盤空間不足無法訪問的解決方法
本文主要介紹了Docker容器導(dǎo)致磁盤空間不足無法訪問的解決方法,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2022-05-05使用Docker部署Nacos并配置MySQL數(shù)據(jù)源的詳細(xì)步驟
Nacos是阿里巴巴開源的服務(wù)發(fā)現(xiàn)、配置管理和服務(wù)管理平臺,它提供了注冊中心和配置中心的功能,能夠輕松地管理微服務(wù)的注冊與發(fā)現(xiàn),以及動態(tài)配置的管理,這篇文章主要給大家介紹了關(guān)于使用Docker部署Nacos并配置MySQL數(shù)據(jù)源的超詳細(xì)步驟,需要的朋友可以參考下2024-05-05docker-compose部署zk+kafka+storm集群的實(shí)現(xiàn)
這篇文章主要介紹了docker-compose部署zk+kafka+storm集群,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-10-10Docker部署用Python編寫的Web應(yīng)用的實(shí)踐
本文主要介紹了Docker部署用Python編寫的Web應(yīng)用,文中通過示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2021-09-09docker images,info,-d等命令報(bào)錯的解決方法
最近剛接觸Docker,所以在學(xué)習(xí)的過程中出現(xiàn)了好多的問題,百度上不好找,谷歌的話,樓主不會翻墻。后來通過各方求助和細(xì)心研究解決了一些遇到的問題,現(xiàn)在將遇到的問題和解決方法分享給大家,有需要的朋友們可以參考借鑒。2016-11-11docker中nginx卸載、安裝、配置及掛載詳細(xì)教程
這篇文章主要給大家介紹了關(guān)于docker中nginx卸載、安裝、配置及掛載的相關(guān)資料,文中通過實(shí)例代碼介紹是非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2022-09-09