国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 服務器 > Web服務器 > 正文

docker 搭建hadoop以及hbase集群詳解

2024-09-01 13:53:08
字體:
來源:轉載
供稿:網友

要用docker搭建集群,首先需要構造集群所需的docker鏡像。構建鏡像的一種方式是,利用一個已有的鏡像比如簡單的linux系統,運行一個容器,在容器中手動的安裝集群所需要的軟件并進行配置,然后commit容器到新的鏡像。另一種方式是,使用Dockerfile來自動化的構造鏡像。

下面采用第二種.

1. 創建帶ssh服務的ubuntu14.04系統鏡像

使用ubuntu14系統來安裝hadoop和hbase,由于hadoop集群機器之間通過ssh通信,所以需要在ubuntu14系統中安裝ssh服務。

編寫Dockerfile如下:

############################################# version : debugman007/ssh:v1# desc : ubuntu14.04 上安裝的ssh############################################# 設置繼承自ubuntu14.04官方鏡像FROM ubuntu:14.04  # 下面是一些創建者的基本信息MAINTAINER debugman007 (skc361@163.com) RUN rm -vf /var/lib/apt/lists/*RUN apt-get update RUN apt-get install -y openssh-server openssh-client vim wget curl sudo #添加用戶 test,設置密碼為 test, 賦予sudo權限RUN useradd -m test RUN echo "test:test" | chpasswdRUN cd /etc/sudoers.d && touch nopasswdsudo && echo "test ALL=(ALL) ALL" >> nopasswdsudo#把test用戶的shell改成bash,否則ssh登錄ubuntu服務器,命令行不顯示用戶名和目錄RUN usermod -s /bin/bash test RUN echo "root:root" | chpasswd #配置sshRUN mkdir /var/run/sshd RUN sed -i 's/PermitRootLogin prohibit-password/PermitRootLogin yes/' /etc/ssh/sshd_configRUN sed 's@session/s*required/s*pam_loginuid.so@session optional pam_loginuid.so@g' -i /etc/pam.d/sshdENV NOTVISIBLE "in users profile"RUN echo "export VISIBLE=now" >> /etc/profile EXPOSE 22 USER testRUN ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsaRUN cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys USER rootRUN ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsaRUN cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 

創建好的系統鏡像位于:https://hub.docker.com/r/debugman007/ubt14-ssh/

Dockerfile 位于:https://github.com/gtarcoder/dockerfiles/blob/master/ubt14-ssh/Dockerfile

2. 創建hadoop和hbase基本鏡像

編寫Dockerfile如下:

############################################# version : debugman007/ubt14-hadoop-hbase:v1# desc : ubuntu上安裝的ssh,java, hadoop ############################################FROM debugman007/ubt14-ssh:v1 # 下面是一些創建者的基本信息MAINTAINER debugman007 (skc361@163.com) #為hadoop集群提供dns服務RUN sudo apt-get -y install dnsmasq #安裝和配置java環境#RUN yum -y install java-1.7.0-openjdk*ADD http://mirrors.linuxeye.com/jdk/jdk-7u80-linux-x64.tar.gz /usr/local/ RUN cd /usr/local && tar -zxvf jdk-7u80-linux-x64.tar.gz && rm -f jdk-7u80-linux-x64.tar.gz ENV JAVA_HOME /usr/local/jdk1.7.0_80ENV CLASSPATH ${JAVA_HOME}/lib/dt.jar:$JAVA_HOME/lib/tools.jarENV PATH $PATH:${JAVA_HOME}/bin #安裝和配置 hadoopRUN groupadd hadoopRUN useradd -m hadoop -g hadoopRUN echo "hadoop:hadoop" | chpasswd ADD http://www-eu.apache.org/dist/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz /usr/local/RUN cd /usr/local && tar -zxvf hadoop-2.7.3.tar.gz && rm -f hadoop-2.7.3.tar.gzRUN chown -R hadoop:hadoop /usr/local/hadoop-2.7.3RUN cd /usr/local && ln -s ./hadoop-2.7.3 hadoop ENV HADOOP_PREFIX /usr/local/hadoopENV HADOOP_HOME /usr/local/hadoopENV HADOOP_COMMON_HOME /usr/local/hadoopENV HADOOP_HDFS_HOME /usr/local/hadoopENV HADOOP_MAPRED_HOME /usr/local/hadoopENV HADOOP_YARN_HOME /usr/local/hadoopENV HADOOP_CONF_DIR /usr/local/hadoop/etc/hadoopENV PATH ${HADOOP_HOME}/bin:$PATH ADD http://www-eu.apache.org/dist/hbase/1.2.4/hbase-1.2.4-bin.tar.gz /usr/local/RUN cd /usr/local && tar -zxvf hbase-1.2.4-bin.tar.gz && rm -f hbase-1.2.4-bin.tar.gz RUN chown -R hadoop:hadoop /usr/local/hbase-1.2.4RUN cd /usr/local && ln -s ./hbase-1.2.4 hbase ENV HBASE_HOME /usr/local/hbaseENV PATH ${HBASE_HOME}/bin:$PATH  RUN echo "hadoop ALL= NOPASSWD: ALL" >> /etc/sudoers USER hadoopRUN ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsaRUN cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 

創建好的鏡像位于:https://hub.docker.com/r/debugman007/ubt14-hadoop-hbase/

Dockerfile 位于:https://github.com/gtarcoder/dockerfiles/blob/master/ubt14-hadoop-hbase/Dockerfile

3. 給hadoop,hbase鏡像進行配置

Dockerfile 如下:

############################################# version : debugman007/ubt14-hadoop-hbase:master# desc : ubuntu上安裝的ssh,java, hadoop, hbase############################################FROM debugman007/ubt14-hadoop-hbase:base # 下面是一些創建者的基本信息MAINTAINER debugman007 (skc361@163.com) ADD hadoop-env.sh $HADOOP_HOME/etc/hadoop/ ADD mapred-env.sh $HADOOP_HOME/etc/hadoop/ ADD yarn-env.sh $HADOOP_HOME/etc/hadoop/ ADD core-site.xml $HADOOP_HOME/etc/hadoop/ ADD hdfs-site.xml $HADOOP_HOME/etc/hadoop/ ADD mapred-site.xml $HADOOP_HOME/etc/hadoop/ ADD yarn-site.xml $HADOOP_HOME/etc/hadoop/ ADD slaves $HADOOP_HOME/etc/hadoop/  ADD hbase-env.sh $HBASE_HOME/conf/ADD hbase-site.xml $HBASE_HOME/conf/ADD regionservers $HBASE_HOME/conf/ USER hadoopRUN sudo mkdir -p /opt/hadoop/data/zookeeperRUN sudo chown -R hadoop:hadoop $HADOOP_HOME/etc/hadoop RUN sudo chown -R hadoop:hadoop $HBASE_HOME/confRUN sudo chown -R hadoop:hadoop /opt/hadoop RUN sudo chown -R hadoop:hadoop /home/hadoop  COPY bootstrap.sh /home/hadoop/ RUN chmod 766 /home/hadoop/bootstrap.sh  ENTRYPOINT ["/home/hadoop/bootstrap.sh"] CMD ["/bin/bash"] 

除了Dockerfile文件,還需要hadoop和hbase的一些配置文件,包括 core-site.xml, hadoop-env.sh, hbase-env.sh, hbase-site.xml, hdfs-site.xml, mapred-env.sh, regionservers, slaves, yarn-env.sh, yarn-site.xml等。

創建好的鏡像位于:https://hub.docker.com/r/debugman007/ubt14-hadoop-hbase/

Dockerfile以及配置文件位于:https://github.com/gtarcoder/dockerfiles/tree/master/ubt14-hadoop-hbase-v1

4. 啟動

(1)啟動一個容器作為hadoop master節點:

docker run -it --name hadoop-master -h hadoop-master -d -P -p 50070:50070 -p 8088:8088 debugman007/ubt14-hadoop-hbase:v1

(2)啟動三個容器作為hadop slave節點

docker run -it --name hadoop-slave1 -h hadoop-slave1 debugman007/ubt14-hadoop-hbase:v1

三個容器名和容器內的主機名分別設為 hadoop-slave1, hadoop-slave2, hadoop-slave3.

(3)設置各個節點的/etc/hosts文件

編輯一個run_hosts.sh 腳本文件,用來設置各個節點的名稱解析。假設hadoop-master容器內的IP地址為10.0.1.2, hadoop-slave1/2/3 的IP地址分別為10.0.1.3/4/5.

#!/bin/bashecho 10.0.1.2 hadoop-master >> /etc/hostsecho 10.0.1.3 hadoop-slave1 >> /etc/hostsecho 10.0.1.4 hadoop-slave2 >> /etc/hostsecho 10.0.1.5 hadoop-slave3 >> /etc/hosts echo 10.0.1.3 regionserver1 >> /etc/hosts #hbase的regionserver服務器echo 10.0.1.4 regionserver2 >> /etc/hosts 

在hadoop-master和hadoop-salve1/2/3容器中都執行該腳本。

(4)進入hadoop-master容器

docker exec -it hadoop-master bash

然后在容器內 /usr/local/hadoop/sbin 目錄下執行:

hdfs namenode -format./start-dfs.sh./start-yarn.sh

啟動hadoop服務。

在容器內執行 start-hbase.sh 啟動hbase服務。

(5)在 hadoop-master 節點和hadoop-slave節點內查看服務是否正常啟動

在各個節點容器內都執行 jps 查看,發現在mster節點中出現

Jps, ResourceManager, NameNode, SecondaryNamenode, HMaster等服務;

在slave節點中出現 Jps, DataNode, NodeManager, HRegionServer等服務。

出現以上服務,說明集群正常啟動。

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持VEVB武林網。


發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 新兴县| 儋州市| 家居| 丹江口市| 乌恰县| 吴堡县| 乌兰县| 城步| 姜堰市| 双辽市| 武功县| 忻州市| 安阳市| 曲麻莱县| 扎兰屯市| 秦安县| 昭通市| 福贡县| 奎屯市| 恩施市| 农安县| 民和| 靖江市| 佛冈县| 阿拉善左旗| 孟州市| 陆丰市| 乌兰浩特市| 德令哈市| 当阳市| 康保县| 左权县| 克山县| 阳曲县| 扶风县| 临猗县| 梁河县| 衡南县| 义马市| 晋城| 云梦县|