李林超博客
首页
归档
留言
友链
动态
关于
归档
留言
友链
动态
关于
首页
大数据
正文
Spark Standalone模式搭建
Leefs
2021-03-06 PM
1474℃
0条
# 10.Spark Standalone模式搭建 ### 前言 搭建 Spark 集群前,需要保证 JDK 环境、Zookeeper 集群和 Hadoop 集群已经搭建,相关步骤可以参阅: + Zookeeper集群环境搭建 + Hadoop集群环境搭建 ### 一、集群介绍 这里搭建一个 3 节点的 Spark 集群,其中三台主机上均部署 `Worker` 服务。同时为了保证高可用,除了在 hadoop001 上部署主 `Master` 服务外,还在 hadoop002 和 hadoop003 上分别部署备用的 `Master` 服务,Master 服务由 Zookeeper 集群进行协调管理,如果主 `Master` 不可用,则备用 `Master` 会成为新的主 `Master`。 | | Master | Worker | Zookeeper | | --------- | ------ | ------ | --------- | | hadoop001 | 是 | 是 | 是 | | hadoop002 | 是 | 是 | 是 | | hadoop003 | 否 | 是 | 是 | ### 二、Spark集群搭建 **1. 下载** 下载地址:http://archive.apache.org/dist/spark/ 根据自身需要下载相应版本,本次下载的版本为`spark-3.0.0-bin-hadoop2.7.tgz` ![10.Spark Standalone模式搭建01.png](https://lilinchao.com/usr/uploads/2021/03/3919408437.png) **2. 上传到服务器指定目录并解压** ``` [root@hadoop001 source]# tar -zxvf spark-3.0.0-bin-hadoop2.7.tgz -C /data/soft/ ``` **3. 配置环境变量** ``` [root@hadoop001 source]# vim /etc/profile ``` 添加环境变量 ``` export JAVA_HOME=/data/soft/jdk1.8 export HADOOP_HOME=/data/soft/hadoop-3.2.1 export SPARK_HOME=/data/soft/spark-3.0.0-bin-hadoop2.7 export PATH=.:$JAVA_HOME/bin:$HADOOP_HOME/bin:$SPARK_HOME/bin:$PATH ``` 使配置生效 ``` [root@hadoop001 source]# source /etc/profile ``` **4. 集群配置** **修改spark-env.sh** ``` [root@hadoop001 source]# cd /data/soft/spark-3.0.0-bin-hadoop2.7/conf/ [root@hadoop001 conf]# cp spark-env.sh.template spark-env.sh ``` 增加如下内容: ```sh # 配置JDK安装位置 JAVA_HOME=/data/soft/jdk1.8 # 配置hadoop配置文件的位置 HADOOP_CONF_DIR=/data/soft/hadoop-3.2.1/etc/hadoop # 配置zookeeper地址 SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop001:2181,hadoop002:2181,hadoop003:2181 -Dspark.deploy.zookeeper.dir=/spark" ``` 修改slaves ``` [root@hadoop001 conf]# cp slaves.template slaves ``` 配置所有 Woker 节点的位置: ``` hadoop001 hadoop002 hadoop003 ``` **5. 安装包分发** 将 Spark 的安装包分发到其他服务器,分发后建议在这两台服务器上也配置一下 Spark 的环境变量。 ``` [root@hadoop001 conf]# scp -rq /data/soft/spark-3.0.0-bin-hadoop2.7/ hadoop002:/data/soft/ [root@hadoop001 conf]# scp -rq /data/soft/spark-3.0.0-bin-hadoop2.7/ hadoop003:/data/soft/ ``` ### 三、启动集群 **1. 启动Zookeeper集群** 分别到三台服务器上启动 ZooKeeper 服务: ``` [root@hadoop001 zookeeper-3.4.14]# /data/soft/zookeeper-3.4.14/bin/zkServer.sh start ``` **2. 启动Hadoop集群** ``` [root@hadoop001 ~]# cd /data/soft/hadoop-3.2.1/ [root@hadoop001 hadoop-3.2.1]# sbin/start-all.sh ``` **3. 启动Spark集群** ``` [root@hadoop001 conf]# cd /data/soft/spark-3.0.0-bin-hadoop2.7/sbin/ [root@hadoop001 sbin]# start-all.sh ``` 分别在 hadoop002 和 hadoop003 上执行下面的命令,启动备用的 `Master` 服务: ``` [root@hadoop002 ~]# cd /data/soft/spark-3.0.0-bin-hadoop2.7/sbin/ [root@hadoop002 sbin]# start-master.sh ``` **4. 查看服务** 查看 Spark 的 Web-UI 页面,端口为 `8080`。 ![10.Spark Standalone模式搭建02.jpg](https://lilinchao.com/usr/uploads/2021/03/1769084654.jpg)
标签:
Hadoop
,
Spark
非特殊说明,本博所有文章均为博主原创。
如若转载,请注明出处:
https://lilinchao.com/archives/1214.html
上一篇
Zookeeper集群环境搭建
下一篇
Spark运行架构
取消回复
评论啦~
提交评论
栏目分类
随笔
2
Java
326
大数据
229
工具
31
其它
25
GO
47
标签云
Filter
Elastisearch
Linux
Spring
Shiro
Yarn
SQL练习题
线程池
Ubuntu
Livy
栈
随笔
MyBatisX
MyBatis-Plus
Hadoop
数学
Stream流
LeetCode刷题
Java工具类
NIO
并发线程
Thymeleaf
SpringCloudAlibaba
HDFS
Typora
Tomcat
二叉树
Git
JavaWEB项目搭建
并发编程
友情链接
申请
范明明
庄严博客
Mx
陶小桃Blog
虫洞