博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop 2.5.2 HDFS HA+YARN HA 应用配置
阅读量:6276 次
发布时间:2019-06-22

本文共 8924 字,大约阅读时间需要 29 分钟。


  • 一:所需安装配置包
  • 二:CentOS6.4x64 主机名配置
  • 三:journalnode 配置zookeeper 安装
  • 四:在namenode节点上部署hadoop 2.5.2
  • 五:hadoop 集群的测试:

一:所需安装配置包

系统:CentOS 6.4 X64软件:Hadoop-2.5.2.tar.gz       native-2.5.2.tar.gz      zookeeper-3.4.6.tar.gz      jdk-7u67-linux-x64.tar.gz将所有软件安装上传到/home/hadoop/yangyang/ 下面

二:CentOS6.4x64 主机名配置

vim /etc/hosts (五台虚拟机全部配置)    192.168.3.1      namenode1.hadoop.com   192.168.3.2      namenode2.hadoop.com   192.168.3.3      journalnode1.hadoop.com   192.168.3.4      journalnode2.hadoop.com   192.168.3.5      journalnode3.hadoop.com

角色分配表:

1.png-26.1kB

2.1:配置无密钥认证

所有服务器均配置-------------     ssh-keygen ----------------一直到最后:每台机器会生成一个id_rsa.pub 文件,将所有的密钥生成导入一个authorized_keys文件里面  cat  id.rsa.pub >> authorized_keys     然后从新分发到每台服务器的 .ssh/目录下面。最后进行测试。

2.2: 安装jdk7u67

所有服务器均配置。     安装jdk      tar -zxvf jdk-7u67-linux-x64.tar.gz     mv jdk-7u67-linux-x64 jdk      环境变量配置   vim .bash_profile   到最后加上:

export JAVA_HOME=/home/hadoop/yangyang/jdkexport CLASSPATH=.:$JAVA_HOME/jre/lib:$JAVA_HOME/lib:$JAVA_HOME/lib/tools.jarexport HADOOP_HOME=/home/hadoop/yangyang/hadoopPATH=$PATH:$HOME/bin:$JAVA_HOME/bin:${HADOOP_HOME}/bin

等所有软件安装部署完毕在进行:     source .bash_profile      java –version

2.png-38.8kB

2.3 配置NTP Server 时间同步服务器

以 namenode1.hadoop.com 配置 作为NTP SERVER, 其它节点同步NTP 配置:Namenode1.hadoop.com去网上同步时间

3.png-17.3kB

echo “ntpdate –u 202.112.10.36 ” >> /etc/rc.d/rc.local  #加入到开机自启动 vim /etc/ntp.conf

4.png-7.7kB

取消下面两行的#
5.png-5.9kB
#vim /etc/sysconfig/ntpd
增加:
6.png-4.3kB

#service ntpd restart  #chkconfig ntpd on

7.png-29.8kB

其它节点 配置计划任务处理将从namenode1.hadoop.com 同步时间crontab –e */10 * * * * /usr/sbin/ntpdate  namnode1.hadoop.com

Namenode2.hadoop.com

8.png-26.7kB

Journalnode1.hadoop.com

9.png-30.8kB

Jornalnode2.hadoop.com

10.png-27.7kB

Journalndoe3.hadoop.com

11.png-25.3kB


三: journalnode 配置zookeeper 安装

3.1 安装zookeeper软件

mv zookeeper-3.4.6 /home/hadoop/yangyang/zookeepercd /home/yangyang/hadoop/zookeeper/confcp  -p zoo_sample.cfg zoo.cfgvim zoo.cfg更改dataDir 目录       dataDir=/home/hadoop/yangyang/zookeeper/data配置journal主机的server.1=journalnode1.hadoop.com:2888:3888server.2=journalnode2.hadoop.com:2888:3888server.3=journalnode3.hadoop.com:2888:3888

12.png-4.8kB

3.2 创建ID 文件

mkdir  /home/hadoop/yangyang/zookeeper/dataecho “1” > /home/hadoop/yangyang/zookeeper/myidcd /home/hadoop/yangyang/scp –r zookeeper hadoop@journalnode2.hadoop.com:/home/hadoop/yangyang/scp –r zookeeper hadoop@journalnode3.hadoop.com:/home/hadoop/yangyang/

13.png-58.7kB

3.3 更改journalnode2 与journalnode3

Journalnode2.hadoop.com :     echo “2” > /home/hadoop/yangyang/zookeeper/data/myid   Journalnode3.hadoop.com:     echo “3” > /home/hadoop/yangyang/zookeeper/myid - 3.4 所有journalnode 节点启动zookeeper。        cd /home/hadoop/yangyang/zookeeper/bin          ./zkServer.sh start---------------------显示以下内容为正常---------------------------

14.png-34kB


四:在namenode节点上部署hadoop 2.5.2----

tar –zxvf hadoop-2.5.2.tar.gz mv hadoop-2.5.2 /home/hadoop/yangyang/hadoop/

4.1修改hadoop-env.sh

cd /home/hadoop/yangyang/hadoop/ vim etc/hadoop/hadoop-env.sh增加jdk 的环境变量

export JAVA_HOME=/home/hadoop/yangyang/jdkexport HADOOP_PID_DIR=/home/hadoop/yangyang/hadoop/data/tmpexport HADOOP_SECURE_DN_PID_DIR=/home/hadoop/yangyang/hadoop/data/tmp
vim etc/hadoop/mapred-env.sh增加jdk 的环境export JAVA_HOME=/home/hadoop/yangyang/jdkexport HADOOP_MAPRED_PID_DIR=/home/hadoop/yangyang/hadoop/data/tmpvim etc/hadoop/yarn-env.shexport JAVA_HOME=/home/hadoop/yangyang/jdk

4.2 修改core-site.xml

vim etc/hadoop/core-site.xml 
fs.defaultFS
hdfs://mycluster
hadoop.tmp.dir
/home/hadoop/yangyang/hadoop/data/tmp
ha.zookeeper.quorum
journalnode1.hadoop.com:2181,journalnode2.hadoop.com:2181,journalnode3.hadoop.com:2181

4.3 修改hdfs-stie.xml

vim  etc/hadoop/hdfs-site.xml
dfs.replication
3
dfs.nameservices
mycluster
dfs.ha.namenodes.mycluster
nn1,nn2
dfs.namenode.rpc-address.mycluster.nn1
namenode1.hadoop.com:8020
dfs.namenode.http-address.mycluster.nn1
namenode1.hadoop.com:50070
dfs.namenode.rpc-address.mycluster.nn2
namenode2.hadoop.com:8020
dfs.namenode.http-address.mycluster.nn2
namenode2.hadoop.com:50070
dfs.namenode.shared.edits.dir
qjournal://journalnode1.hadoop.com:8485;journalnode2.hadoop.com:8485;journalnode3.hadoop.com:8485/mycluster
dfs.journalnode.edits.dir
/home/hadoop/yangyang/hadoop/data/jn
dfs.ha.automatic-failover.enabled
true
dfs.client.failover.proxy.provider.masters
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
dfs.ha.fencing.methods
sshfenceshell(/bin/true)
dfs.ha.fencing.ssh.private-key-files
/home/hadoop/.ssh/id_rsa
dfs.ha.fencing.ssh.connect-timeout
30000

4.4 修改mapred-site.xml

vim etc/hadoop/mapred-site.xml 
mapreduce.framework.name
yarn
mapreduce.jobhistory.address
journalnode3.hadoop.com:10020
mapreduce.jobhistory.webapp.address
journalnode3.hadoop.com:19888

4.5修改yarn-site.xml

vim etc/hadoop/yarn-site.xml
yarn.resourcemanager.ha.enabled
true
yarn.resourcemanager.cluster-id
RM_HA_ID
yarn.resourcemanager.ha.rm-ids
rm1,rm2
yarn.resourcemanager.hostname.rm1
namenode1.hadoop.com
yarn.resourcemanager.hostname.rm2
namenode2.hadoop.com
yarn.resourcemanager.recovery.enabled
true
yarn.resourcemanager.store.class
org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore
yarn.resourcemanager.zk-address
journalnode1.hadoop.com:2181,journalnode2.hadoop.com:2181,journalnode3.hadoop.com:2181
yarn.nodemanager.aux-services
mapreduce_shuffle

4.6更换native 文件

rm  -rf  lib/native/*tar –zxvf hadoop-native-2.5.2.tar.gz –C hadoop/lib/nativecd hadoop/lib/native/

15.png-52.9kB

4.7 修改slaves 文件

vim etc/hadoop/slavesjournalnode1.hadoop.comjournalnode2.hadoop.comjournalnode3.hadoop.com

4.8 所有节点同步:

cd /home/hadoop/yangyang/ scp –r hadoop hadoop@namenode2.hadoop.com:/home/hadoop/yangyang/ scp –r hadoop hadoop@journalnode1.hadoop.com:/home/hadoop/yangyang/ scp –r hadoop hadoop@journalnode2.hadoop.com:/home/hadoop/yangyang/ scp –r hadoop hadoop@journalnode3.hadoop.com:/home/hadoop/yangyang/

4.9 启动所有 journalnode 节点的journalnode服务

cd /home/hadoop/yangyang/hadoop/sbin   ./ hadoop-daemon.sh start journalnode     ---------------------------显示内容--------------------------

16.png-12.7kB

4.10 启动namenode 节点的HDFS

cd /home/hadoop/yangyang/hadoop/bin ./hdfs namenode –format![17.png-101.7kB][17]将namenode1上生成的data文件夹复制到namenode2的相同目录下scp  -r  hadoop/data/  hadoop@namenode2.hadoop.com:/home/hadoop/yangyang/hadoop

18.png-22.1kB

4.11格式化ZK 在namenode1 上面执行

cd /home/hadoop/yangyang/hadoop/bin  ./ hdfs zkfc –formatZK

19.png-72.1kB

###4.12 启动hdfs 与yarn 服务:

./start-dfs.sh     ./ start-yarn.sh

20.png-89.6kB

4.13 namenode2上的standby resourcemanger是需要手动启动的

cd /home/hadoop/yangyang/hadoop/sbin ./yarn-daemon.sh start resourcemanager

4.14通过web查看集群状态

查看namenodehttp://namenode1.hadoop.com:50070/

21.png-49.5kB

http://namenode2.hadoop.com:50070/

22.png-47.7kB

查看resourcemangerhttp://namenode1.hadoop.com:8088/

23.png-48.5kB

24.png-47.9kB

http://namenode2.hadoop.com:8088/

25.png-6.3kB

4.15启动journalnode3.hadoop.com 的jobhistory 功能:

cd /home/hadoop/yangyang/hadoop/sbin/./mr-jobhistory-daemon.sh start historyserver

26.png-14.5kB


五:hadoop 集群的测试:

5.1 HDFS 的故障转移

杀掉namenode1.haoop.com 上的namenode

27.png-51.6kB

namenode2.haoop.com 的stundby 则切换为active状态。

28.png-34.4kB

启动namenode1.hadoop.com 的namenode 节点   cd /home/hadoop/yangyang/hadoop/sbin/./hadoop-daemon.sh start namenode

29.png-13.4kB

打开namenode1.hadoop.com 的浏览器

30.png-36.5kB

5.2 yarn的故障转移:

hadoop fs –mkdir /input   hadoop fs –put file1 /input/

31.png-38.8kB

在运行wordcount 时 杀掉 namenode1.hadoop.com 的resourcemanager运行wordcount cd /home/hadoop/yangyang/hadoop/share/hadoop/mapreduceyarn jar hadoop-mapreduce-examples-2.5.2.jar wordcount /input/file1 /output

32.png-63.2kB

杀掉namenode1.hadoop.com 上的rescourcemanager

33.png-7.7kB

Namenode2.hadoop.com 的yarn 切换为actvie

34.png-56.9kB

Wordcount 运行执行结束:

35.png-69.7kB

36.png-56.3kB

查看jobhistory 页面

37.png-34.7kB

38.png-56.1kB

转载于:https://blog.51cto.com/flyfish225/2096436

你可能感兴趣的文章
关于ovirt主机即做存储又兼虚拟机主机的官方文档说明
查看>>
grep匹配结尾字符串的特殊情况
查看>>
第三方农资电商平台大丰收获华创资本数亿元C轮融资
查看>>
“虎鲸跳跃” 完成300万美元Pre-A轮融资,投资方为蓝湖资本及险峰长青
查看>>
JSON简介
查看>>
深圳安泰创新完成数千万新一轮融资,贝森资本领投
查看>>
当 Kubernetes 遇到阿里云
查看>>
MongoDB与Java 经典面试题、课程,好资源值得收藏
查看>>
标普全球获准进入中国市场,本土评级机构压力山大!
查看>>
阿里云基础产品技术月刊 2019年1月
查看>>
Go 语言的垃圾回收演化历程:垃圾回收和运行时问题
查看>>
苹果收购硅谷创业公司 Silk Labs,将继续布局 AI 和 IoT
查看>>
Idea开发Tomcat应用的热部署配置
查看>>
docker安装mysql
查看>>
GNOME 3.34 发布计划敲定,正式版将于9月11日推出
查看>>
使用Data Lake Analytics快速分析OSS上的日志文件
查看>>
《图解服务器端网络架构》笔记
查看>>
《叶问》第2期
查看>>
各业务Object概念(VO、 PO、DO、DTO、 BO、 QO、DAO、POJO)
查看>>
JavaScript对象继承方式
查看>>