国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 服務器 > Web服務器 > 正文

使用docker快速搭建Spark集群的方法教程

2024-09-01 13:52:05
字體:
來源:轉載
供稿:網友

前言

Spark 是 Berkeley 開發的分布式計算的框架,相對于 Hadoop 來說,Spark 可以緩存中間結果到內存而提高某些需要迭代的計算場景的效率,目前收到廣泛關注。下面來一起看看使用docker快速搭建Spark集群的方法教程。

適用人群

  • 正在使用spark的開發者
  • 正在學習docker或者spark的開發者

準備工作

  • 安裝docker
  • (可選)下載java和spark with hadoop

Spark集群

Spark運行時架構圖

docker,搭建spark集群,spark,集群,docker搭建spark

如上圖: Spark集群由以下兩個部分組成

  • 集群管理器(Mesos, Yarn或者standalone Mode)
  • 工作節點(worker)

如何docker化(本例使用Standalone模式)

1、將spark集群拆分

      base(基礎鏡像)

      master(主節點鏡像)

      worker(工作鏡像)

2、編寫base Dockerfile

注: 為方便切換版本基礎鏡像選擇的是centos, 所以要下載java和spark, 方便調試, 可以下載好安裝文件后本地搭建一個靜態文件服務器, 使用Node.js 的http-server可以快速搞定

命令如下

 npm install http-server -g http-server -p 54321 ~/Downloads

正式開始寫Dockerfile

FROM centos:7MAINTAINER RavenZZ <raven.zhu@outlook.com># 安裝系統工具RUN yum update -yRUN yum upgrade -yRUN yum install -y byobu curl htop man unzip nano wgetRUN yum clean all# 安裝 JavaENV JDK_VERSION 8u11ENV JDK_BUILD_VERSION b12# 如果網速快,可以直接從源站下載#RUN curl -LO "http://download.oracle.com/otn-pub/java/jdk/$JDK_VERSION-$JDK_BUILD_VERSION/jdk-$JDK_VERSION-linux-x64.rpm" -H 'Cookie: oraclelicense=accept-securebackup-cookie' && rpm -i jdk-$JDK_VERSION-linux-x64.rpm; rm -f jdk-$JDK_VERSION-linux-x64.rpm;RUN curl -LO "http://192.168.199.102:54321/jdk-8u11-linux-x64.rpm" && rpm -i jdk-$JDK_VERSION-linux-x64.rpm; rm -f jdk-$JDK_VERSION-linux-x64.rpm;ENV JAVA_HOME /usr/java/defaultRUN yum remove curl; yum clean allWORKDIR sparkRUN / curl -LO 'http://192.168.199.102:54321/spark-2.1.0-bin-hadoop2.7.tgz' && / tar zxf spark-2.1.0-bin-hadoop2.7.tgzRUN rm -rf spark-2.1.0-bin-hadoop2.7.tgzRUN mv spark-2.1.0-bin-hadoop2.7/* ./ENV SPARK_HOME /sparkENV PATH /spark/bin:$PATHENV PATH /spark/sbin:$PATH

3、編寫master Dockerfile

FROM ravenzz/spark-hadoopMAINTAINER RavenZZ <raven.zhu@outlook.com>COPY master.sh /ENV SPARK_MASTER_PORT 7077ENV SPARK_MASTER_WEBUI_PORT 8080ENV SPARK_MASTER_LOG /spark/logsEXPOSE 8080 7077 6066CMD ["/bin/bash","/master.sh"]

4、編寫worker Dockerfile

 FROM ravenzz/spark-hadoop MAINTAINER RavenZZ <raven.zhu@outlook.com>  COPY worker.sh / ENV SPARK_WORKER_WEBUI_PORT 8081 ENV SPARK_WORKER_LOG /spark/logs ENV SPARK_MASTER "spark://spark-master:32769" EXPOSE 8081 CMD ["/bin/bash","/worker.sh"]

5、docker-compose

 version: '3'services: spark-master: build: context: ./master dockerfile: Dockerfile ports: - "50001:6066" - "50002:7077" # SPARK_MASTER_PORT - "50003:8080" # SPARK_MASTER_WEBUI_PORT expose: - 7077 spark-worker1: build: context: ./worker dockerfile: Dockerfile ports: - "50004:8081" links: - spark-master environment: - SPARK_MASTER=spark://spark-master:7077 spark-worker2: build: context: ./worker dockerfile: Dockerfile ports: - "50005:8081" links: - spark-master environment: - SPARK_MASTER=spark://spark-master:7077

6、測試集群

docker-compose up

訪問http://localhost:50003/ 結果如圖

docker,搭建spark集群,spark,集群,docker搭建spark

參考鏈接

本例源代碼

本地下載:點擊這里

總結

以上就是這篇文章的全部內容了,希望本文的內容對大家的學習或者工作能帶來一定的幫助,如果有疑問大家可以留言交流,謝謝大家對VEVB武林網的支持。

 

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 枣阳市| 新津县| 兴安县| 渑池县| 玉溪市| 贵州省| 太仓市| 尉犁县| 新田县| 通州市| 靖边县| 定南县| 上犹县| 大厂| 涿鹿县| 福泉市| 宜兰市| 永登县| 修文县| 沁水县| 大化| 青州市| 秀山| 钟祥市| 天柱县| 肥乡县| 靖安县| 济南市| 宁阳县| 岑溪市| 许昌县| 桐柏县| 汪清县| 靖远县| 凌源市| 扶风县| 巴林左旗| 汉寿县| 区。| 马尔康县| 宣化县|