Docker-Compose搭建Spark集群的實現(xiàn)方法
一、前言
在前文中,我們使用Docker-Compose完成了hdfs集群的構(gòu)建。本文將繼續(xù)使用Docker-Compose,實現(xiàn)Spark集群的搭建。
二、docker-compose.yml
對于Spark集群,我們采用一個mater節(jié)點和兩個worker節(jié)點進行構(gòu)建。其中,所有的work節(jié)點均分配1一個core和 1GB的內(nèi)存。
Docker鏡像選擇了bitnami/spark的開源鏡像,選擇的spark版本為2.4.3,docker-compose配置如下:
master: image: bitnami/spark:2.4.3 container_name: master user: root environment: - SPARK_MODE=master - SPARK_RPC_AUTHENTICATION_ENABLED=no - SPARK_RPC_ENCRYPTION_ENABLED=no - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no - SPARK_SSL_ENABLED=no ports: - '8080:8080' - '7077:7077' volumes: - ./python:/python worker1: image: bitnami/spark:2.4.3 container_name: worker1 user: root environment: - SPARK_MODE=worker - SPARK_MASTER_URL=spark://master:7077 - SPARK_WORKER_MEMORY=1G - SPARK_WORKER_CORES=1 - SPARK_RPC_AUTHENTICATION_ENABLED=no - SPARK_RPC_ENCRYPTION_ENABLED=no - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no - SPARK_SSL_ENABLED=no worker2: image: bitnami/spark:2.4.3 container_name: worker2 user: root environment: - SPARK_MODE=worker - SPARK_MASTER_URL=spark://master:7077 - SPARK_WORKER_MEMORY=1G - SPARK_WORKER_CORES=1 - SPARK_RPC_AUTHENTICATION_ENABLED=no - SPARK_RPC_ENCRYPTION_ENABLED=no - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no - SPARK_SSL_ENABLED=no
在master節(jié)點中,也映射了一個/python目錄,用于存放pyspark代碼,方便運行。
對于master節(jié)點,暴露出7077端口和8080端口分別用于連接spark以及瀏覽器查看spark UI,在spark UI中,集群狀態(tài)如下圖(啟動后):
如果有需要,可以自行添加worker節(jié)點,其中可以修改SPARK_WORKER_MEMORY
與SPARK_WORKER_CORES
對節(jié)點分配的資源進行修改。
對于該鏡像而言,默認exec進去是無用戶的,會導(dǎo)致一些安裝命令權(quán)限的不足,無法安裝。例如需要運行pyspark,可能需要安裝numpy、pandas等庫,就無法使用pip完成安裝。而通過user: root
就能設(shè)置默認用戶為root用戶,避免上述問題。
三、啟動集群
同上文一樣,在docker-compose.yml的目錄下執(zhí)行docker-compose up -d
命令,就能一鍵構(gòu)建集群(但是如果需要用到numpy等庫,還是需要自己到各節(jié)點內(nèi)進行安裝)。
進入master節(jié)點執(zhí)行spark-shell
,成功進入:
四、結(jié)合hdfs使用
將上文的Hadoop的docker-compose.yml與本次的結(jié)合,得到新的docker-compose.yml:
version: "1.0" services: namenode: image: bde2020/hadoop-namenode:2.0.0-hadoop3.2.1-java8 container_name: namenode ports: - 9870:9870 - 9000:9000 volumes: - ./hadoop/dfs/name:/hadoop/dfs/name - ./input:/input environment: - CLUSTER_NAME=test env_file: - ./hadoop.env datanode: image: bde2020/hadoop-datanode:2.0.0-hadoop3.2.1-java8 container_name: datanode depends_on: - namenode volumes: - ./hadoop/dfs/data:/hadoop/dfs/data environment: SERVICE_PRECONDITION: "namenode:9870" env_file: - ./hadoop.env resourcemanager: image: bde2020/hadoop-resourcemanager:2.0.0-hadoop3.2.1-java8 container_name: resourcemanager environment: SERVICE_PRECONDITION: "namenode:9000 namenode:9870 datanode:9864" env_file: - ./hadoop.env nodemanager1: image: bde2020/hadoop-nodemanager:2.0.0-hadoop3.2.1-java8 container_name: nodemanager environment: SERVICE_PRECONDITION: "namenode:9000 namenode:9870 datanode:9864 resourcemanager:8088" env_file: - ./hadoop.env historyserver: image: bde2020/hadoop-historyserver:2.0.0-hadoop3.2.1-java8 container_name: historyserver environment: SERVICE_PRECONDITION: "namenode:9000 namenode:9870 datanode:9864 resourcemanager:8088" volumes: - ./hadoop/yarn/timeline:/hadoop/yarn/timeline env_file: - ./hadoop.env master: image: bitnami/spark:2.4.3-debian-9-r81 container_name: master user: root environment: - SPARK_MODE=master - SPARK_RPC_AUTHENTICATION_ENABLED=no - SPARK_RPC_ENCRYPTION_ENABLED=no - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no - SPARK_SSL_ENABLED=no ports: - '8080:8080' - '7077:7077' volumes: - ./python:/python worker1: image: bitnami/spark:2.4.3-debian-9-r81 container_name: worker1 user: root environment: - SPARK_MODE=worker - SPARK_MASTER_URL=spark://master:7077 - SPARK_WORKER_MEMORY=1G - SPARK_WORKER_CORES=1 - SPARK_RPC_AUTHENTICATION_ENABLED=no - SPARK_RPC_ENCRYPTION_ENABLED=no - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no - SPARK_SSL_ENABLED=no worker2: image: bitnami/spark:2.4.3-debian-9-r81 container_name: worker2 user: root environment: - SPARK_MODE=worker - SPARK_MASTER_URL=spark://master:7077 - SPARK_WORKER_MEMORY=1G - SPARK_WORKER_CORES=1 - SPARK_RPC_AUTHENTICATION_ENABLED=no - SPARK_RPC_ENCRYPTION_ENABLED=no - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no - SPARK_SSL_ENABLED=no
運行集群(還需要一個hadoop.env文件見上文)長這樣:
通過Docker容器的映射功能,將本地文件與spark集群的master節(jié)點的/python進行了文件映射,編寫的pyspark通過映射可與容器中進行同步,并通過docker exec指令,完成代碼執(zhí)行:
運行了一個回歸程序,集群功能正常:
到此這篇關(guān)于Docker-Compose搭建Spark集群的實現(xiàn)方法的文章就介紹到這了,更多相關(guān)Docker-Compose搭建Spark集群內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
解決docker run hello-world遇到錯誤消息-error during&n
這篇文章主要介紹了解決docker run hello-world遇到錯誤消息-error during conne問題,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2023-06-06如何解決1130?-?Host?‘172.17.0.1‘?is?not?allowed?to?conne
這篇文章主要介紹了如何解決1130?-?Host?‘172.17.0.1‘?is?not?allowed?to?connect?to?this?MySQL?server的問題,本文給大家介紹的非常詳細,感興趣的朋友跟隨小編一起看看吧2024-08-08用Docker快速構(gòu)建LEMP環(huán)境的方法示例
這篇文章主要介紹了用Docker快速構(gòu)建LEMP環(huán)境的方法示例,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2019-02-02