一:传入hadoop压缩包,解压,改文件名
用Xftp直接传入到install目录下
解压:[root@gky181 install]# tar -zxvf hadoop-3.1.3.tar.gz -C /opt/soft/
改名:
[root@gky181 install]# cd /opt/soft
[root@gky181 soft]# mv hadoop-3.1.3/ hadoop313
二:更改配置文件和设置环境变量
1,更改/opt/soft/hadoop313/etc/hadoop/目录下的6个文件:
workers , core-site.xml , hdfs-site.xml ,yarn-site.xml ,mapred-site.xml , hadoop-env.sh
[root@gky181 soft]# cd /opt/soft/hadoop313/etc/hadoop/
①workers:
[root@gky181 hadoop]# vim workers 加入全部机器
②core-site.xml:
[root@gky181 hadoop]# vim core-site.xml
③hadoop-env.sh
[root@gky181 hadoop]# vim hadoop-env.sh
export JAVA_HOME=/opt/soft/jdk180
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export HDFS_JOURNALNODE_USER=root
export HDFS_ZKFC_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
④hdfs-site.xml
[root@gky181 hadoop]# vim hdfs-site.xml
⑤mapred-site.xml
[root@gky181 hadoop]# vim mapred-site.xml
⑥yarn-site.xml
[root@gky181 hadoop]# vim yarn-site.xml
2,设置环境变量
[root@gky181 hadoop]# vim /etc/profile
#HADOOP_HOME
export HADOOP_HOME=/opt/soft/hadoop313
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/lib
3,把hadoop313目录和/etc/profile都复制到其他机器上
[root@gky181 hadoop]# cd /opt/soft/
[root@gky181 soft]# scp -r ./hadoop313/ root@gky182:/opt/soft/
[root@gky181 soft]# scp -r ./hadoop313/ root@gky183:/opt/soft/
[root@gky181 soft]# scp -r ./hadoop313/ root@gky184:/opt/soft/
[root@gky181 soft]# scp /etc/profile root@gky182:/etc/
[root@gky181 soft]# scp /etc/profile root@gky183:/etc/
[root@gky181 soft]# scp /etc/profile root@gky184:/etc/
[root@gky184 .ssh]# source /etc/profile 四台机器都需要刷新一下
三:启动集群
集群配置图
gky181gky182gky183gky184NameNodeNameNodeDataNodeDataNodeDataNodeDataNodeNodeManagerNodeManagerNodeManagerNodeManagerResourceManagerResourceManagerJournalNodeJournalNodeJournalNodeDFSZKFConlerDFSZKFConlerzk0zk1zk2JobHistory
启动zk集群
[root@gky181 soft]# cd /opt/shellfile/
[root@gky181 shellfile]# ./zkop.sh start
[root@gky181 shellfile]# ./zkop.sh status
[root@gky181 shellfile]# ./showjps.sh
启动gky181,gky182,gky183的journalnode服务:
[root@gky181 shellfile]# hdfs --daemon start journalnode
[root@gky182 shellfile]# hdfs --daemon start journalnode
[root@gky183 shellfile]# hdfs --daemon start journalnode
目录已创建
若有报错,即杀死进程:[root@gky181 shellfile]# kill -9 13015
在gky181格式化hfds namenode: [root@gky181 shellfile]#hdfs namenode -format
在gky181启动namenode服务: [root@gky181 shellfile]# hdfs --daemon start namenode
在gky182机器上同步namenode信息: [root@gky182 datas]# hdfs namenode -bootstrapStandby
6.在gky182启动namenode服务:[root@gky182 datas]# hdfs --daemon start namenode
查看namenode节点状态:
[root@gky181 shellfile]# hdfs haadmin -getServiceState nn1
[root@gky181 shellfile]# hdfs haadmin -getServiceState nn2
7.关闭所有dfs有关的服务: [root@gky181 soft]# stop-dfs.sh
8.格式化zk : [root@gky181 soft]# hdfs zkfc -formatZK
9.启动dfs: [root@gky181 soft]# start-dfs.sh
10.启动yarn: [root@gky181 soft]# start-yarn.sh
查看resourcemanager节点状态:
[root@gky181 shellfile]# yarn rmadmin -getServiceState rm1
[root@gky181 shellfile]# yarn rmadmin -getServiceState rm2
四:注意点
若中途出现错误,可以关掉所有进程,重新来
[root@gky181 shellfile]# stop-all.sh
[root@gky181 shellfile]# zkServer.sh stop
[root@gky181 shellfile]# zkServer.sh stop
在 三.3 格式化的时候有报错
就直接把每一台机器的/opt/soft/hadoop313/data下面的journaldata这个目录直接删除掉,关闭所有进程,再重新开启来过
好文阅读
发表评论