李林超博客
首页
归档
留言
友链
动态
关于
归档
留言
友链
动态
关于
首页
大数据
正文
CentOS7 Hadoop安装教程
Leefs
2021-02-12 PM
4218℃
0条
# 04.CentOS7 Hadoop安装教程 ### 前言 本次安装系统环境CentOS7.X,Hadoop版本2.5.8。 同时,环境中需要安装JDK1.8作为Hadoop的运行环境 ### 安装步骤 **一、Hadoop下载地址** https://www-eu.apache.org/dist/hadoop/common/hadoop-2.8.5/hadoop-2.8.5.tar.gz **二、创建一个新用户** **(1)添加用户** ``` [root@localhost home]# useradd -m hadoop -s /bin/bash ``` **(2)修改密码** ``` [root@localhost home]# passwd hadoop ``` **(3)分配用户组** ``` [root@localhost home]# usermod -a -G hadoop hadoop ``` **(4)添加sudo权限** ``` [root@localhost home]# vim /etc/sudoers ``` 在文件中找到“root ALL=(ALL) ALL”,在这行下面加上“hadoop ALL=(ALL) ALL”,然后输入":wq!"保存退出  **(5)切换用户** ``` [root@localhost home]# su - hadoop ``` **(6)ssh密钥生成** 检查您是否可以在没有密码的情况下ssh到localhost ``` [hadoop@localhost ~]$ ssh localhost ```  上图是需要密码! **如果需要密码执行下方命令** ``` [hadoop@localhost ~]$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa [hadoop@localhost ~]$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys [hadoop@localhost ~]$ chmod 0600 ~/.ssh/authorized_keys ```  **验证是否成功** ``` [hadoop@localhost ~]$ ssh localhost ``` **(8)添加hosts** ``` [hadoop@localhost ~]$ ip addr #查看本机IP地址 [hadoop@localhost ~]$ sudo vim /etc/hosts ``` 加入 ``` #IP 主机名 192.168.159.135 hadoopserver ``` ### 三、安装步骤 安装Hadoop(伪分布式) **1、解压下载好的Hadoop** ``` [hadoop@localhost sources]$ sudo tar -zxf hadoop-2.8.5.tar.gz -C /usr/local/ ``` **2、修改文件的所有者** ``` [hadoop@localhost local]$ sudo chown -R hadoop:hadoop /usr/local/hadoop-2.8.5 ``` **3、添加环境变量** 修改`~/.bashrc`文件 ``` [hadoop@localhost local]$ vim ~/.bashrc ``` 文件中加入如下指令 ``` export HADOOP_HOME=/usr/local/hadoop-2.8.5 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH ``` 使环境变量生效 ``` [hadoop@localhost local]$ source ~/.bashrc ``` **4、修改配置文件** 进入配置文件目录 ``` [hadoop@localhost local]$ cd $HADOOP_HOME/etc/hadoop ``` 修改下列配置文件 + hadoop-env.sh 修改文件中的JAVA_HOME ``` export JAVA_HOME=/usr/local/jdk1.8.0_241 ``` + core-site.xml 修改core-site.xml文件当中的 ```xml
``` 修改为 ```xml
hadoop.tmp.dir
/usr/local/hadoop-2.8.5/tmp
Abase for other temporary directories.
fs.defaultFS
hdfs://hadoopserver:9000
``` + hafs-site.xml 同样修改为 ```xml
dfs.replication
1
dfs.namenode.name.dir
/usr/local/hadoop-2.8.5/tmp/dfs/name
dfs.datanode.data.dir
/usr/local/hadoop-2.8.5/tmp/dfs/data
``` + yarn-site.xml 同样修改为 ```xml
yarn.resourcemanager.hostname
hadoopserver
yarn.nodemanager.aux-services
mapreduce_shuffle
``` + mapred-site.xml 因为mapred-site.xml文件不存在,所以重命名mapred-site.xml.template文件即可 ``` [hadoop@localhost hadoop]$ mv mapred-site.xml.template mapred-site.xml ``` 然后修改为 ```xml
mapreduce.framework.name
yarn
``` + slaves 修改为主机名 ``` [hadoop@localhost hadoop]$ mv slaves hadoopserver ``` ### 四、启动 第一次启动之前需要格式化HDFS ``` [hadoop@localhost hadoop]$ hdfs namenode -format [hadoop@localhost hadoop]$ start-yarn.sh ```  启动服务 ``` [hadoop@localhost hadoop]$ start-dfs.sh ```  启动成功后访问web页面 http://192.168.159.135:50070/ 
标签:
Hbase
,
Hadoop
非特殊说明,本博所有文章均为博主原创。
如若转载,请注明出处:
https://lilinchao.com/archives/1122.html
上一篇
Hbase存储结构
下一篇
CentOS7 Zookeeper安装教程
取消回复
评论啦~
提交评论
栏目分类
随笔
2
Java
326
大数据
229
工具
35
其它
25
GO
48
NLP
8
标签云
设计模式
Ray
查找
Jquery
Scala
Kafka
DataX
Typora
GET和POST
排序
FastDFS
稀疏数组
栈
微服务
Prometheus
HDFS
Elastisearch
Flume
Stream流
JVM
gorm
Python
Map
锁
DataWarehouse
Java阻塞队列
Flink
持有对象
Spark SQL
Hive
友情链接
申请
范明明
庄严博客
Mx
陶小桃Blog
虫洞