版本信息:
Hadoop 2.3.0-cdh5.0.0
节点分布:
NameNode:compute-50-04 SecondaryNameNode:compute-50-04 ResourceManager :compute-50-03 NodeManager : compute-28-16 compute-28-17 compute-50-00 compute-50-03 compute-50-04 DataNode: compute-28-16 compute-28-17 compute-50-00 compute-50-03 compute-50-04
部署:
1.增加hadoop用户,组也是hadoop组,详情参见“linux之用户组分配”
2.配置节点之间的双向ssh免密登陆,参见博客“linux免密钥SSH登陆配置”
3.官方下载hadoop 2.3.0-cdh5.0.0包,解压路径为:/home/hadoop/hadoop 2.3.0-cdh5.0.0
4.配置core-site.xml:
<configuration> <property> <name>fs.default.name</name> <value>hdfs://compute-50-04:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/data/tmp</value> </property> <property> <name>ha.zookeeper.quorum</name> <value>compute-28-16:2181,compute-28-17:2181,compute-50-00:2181</value> </property> <property> <name>hadoop.proxyuser.hduser.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hduser.groups</name> <value>*</value> </property> </configuration>
5.配置hdfs-site.xml:
<configuration> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>compute-50-03:9001</value> </property> <property> <name>dfs.ha.fencing.methods</name> <value>shell(/bin/true)</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoop/data/dfs/nn</value> </property> <property> <name>dfs.data.dir</name> <value>/home/hadoop/data/dfs/dn</value> </property> <property> <name>dfs.datanode.failed.volumes.tolerated</name> <value>0</value> </property> <property> <name>ipc.client.ping</name> <value>false</value> </property> <property> <name>ipc.ping.interval</name> <value>60000</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> <property> <name>dfs.client.read.shortcircuit</name> <value>false</value> </property> <property> <name>dfs.permissions.enabled</name> <value>false</value> </property> <property> <name>dfs.domain.socket.path</name> <value>${hadoop.tmp.dir}/sockets/dn._PORT</value> </property> </configuration>
6.配置mapred-site.xml:
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>compute-50-00:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>compute-50-00:19888</value> </property> <property> <name>mapreduce.jobhistory.intermediate-done-dir</name> <value>/data2/data/mr/history-tmp</value> </property> <property> <name>mapreduce.jobhistory.done-dir</name> <value>/data2/data/mr/history-done</value> </property> <property> <name>yarn.app.mapreduce.am.staging-dir</name> <value>/user</value> </property> <property> <name>mapreduce.map.memory.mb</name> <value>2048</value> </property> <property> <name>mapreduce.map.speculative</name> <value>false</value> </property> <property> <name>mapreduce.job.queuename</name> <value>default</value> </property> <!-- acl --> <property> <name>mapreduce.cluster.acls.enabled</name> <value>false</value> </property> <property> <name>mapreduce.job.acl-view-job</name> <value></value> </property> <property> <name>mapreduce.job.acl-modify-job</name> <value></value> </property> </configuration>
7.配置yarn-site.xml:
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>compute-50-04</value> </property> <property> <name>yarn.nodemanager.local-dirs</name> <value>/data2/data/yarn/local</value> </property> <property> <name>yarn.nodemanager.vmem-pmem-ratio</name> <value>10</value> </property> <property> <name>yarn.nodemanager.container-executor.class</name> <value>org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor</value> </property> <property> <name>yarn.log-aggregation-enable</name> <value>false</value> </property> <property> <name>yarn.resourcemanager.scheduler.class</name> <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler</value> </property> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property> <property> <name>yarn.resourcemanager.scheduler.monitor.enable</name> <value>true</value> </property> <property> <name>yarn.resourcemanager.scheduler.monitor.policies</name> <value>org.apache.hadoop.yarn.server.resourcemanager.monitor.capacity.ProportionalCapacityPreemptionPolicy</value> </property> <property> <name>yarn.resourcemanager.monitor.capacity.preemption.observe_only</name> <value>false</value> </property> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>20720</value> </property> <property> <name>yarn.acl.enable</name> <value>false</value> </property> <property> <name>yarn.admin.acl</name> <value>yarn,hadoop</value> </property> <property> <name>yarn.nodemanager.resource.cpu-vcores</name> <value>8</value> </property> </configuration>
8.配置slaves:
compute-28-16 compute-28-17 compute-50-00 compute-50-03 compute-50-04
9.配置信息已经完成,那么建立相应的目录:
mkdir -p yourpath
10.分发到各个节点上去:
scp -r /home/hadoop/hadoop-2.3.0-cdh5.0.0 hadoop@hostxxxxx:/home/hadoop/ ......
11.格式化namenode:
bin/hadoop namenode -format
12.启动:
sbin/start-all.sh
其他问题:
1.启动的时候报错:Error: JAVA_HOME is not set and could not be found
修复方式:
在etc/hadoop/yarn-env.sh 和etc/hadoop/hadoop-env.sh中显示指定
export JAVA_HOME=/usr/java/jdk1.6.0_21
其他说明:
1.NameNode基于SecondaryNameNode没有HA
2.ResourceManager为单节点没有HA
相关推荐
YARN HA 测试Job YARN HA 测试Job 序号 任务名称 任务一 准备MapReduce输入文件 任务二 将输入文件上传到HDFS 任务三 运行MapReduce程序测试Job 任务一 准备MapReduce输入文件 在master主节点,使用 root 用户登录,...
1. 解压Spark安装包 2. 配置Hadoop生态组件相关环境变量 2. 在 master 节点上,关闭HDFS的安全模式: 3. 在 master 节点上
Hadoop-2.8.1+Zookeeper-3.4.6(HDFS,YARN HA)部署指南
presto on yarn的安装部署文档。已经在测试环境安装,可访问生产环境hive数据,访问速度快。presto版本0.220
在《CentOS7下Hadoop3.2.1集群的安装与部署(上)》中我们我们完成了对Hadoop集群的安装与启动。接下来,重点对HDFS和Yarn的HA配置进行介绍。 HDFS高可用 在上述Hadoop集群搭建完成之后,若要启用HA还需要对hdfs-...
个人总结的集群搭建运行事例环境文档。...有spark standalone模式 yarn模式 zookeeper的搭建 还有分布式文件系统hdfs hadoop搭建,内存式文件系统alluxio。开发环境的搭建idea for scala 的配置 ,和打包事例
YARN HA 配置、启动与验证;YARN HA 配置、启动与验证;任务一 配置SSH无密钥登录(slave2为主节点);任务二 修改yarn-site.xml配置文件(一);任务二 修改yarn-site.xml配置文件(二);任务二 修改yarn-site.xml配置...
Linux虚机手工安装Apache Hadoop的步骤。这个安装只有HDFS、YARN、MapReduce等基本组件,不包含任何其他的Hadoop组件。如果需要使用Hive、HBase、Spark等其他工具,需要在此基础上手工安装
Apache Hadoop软件库是一个框架,它允许使用简单的编程模型跨计算机群集分布式处理大型数据集。...Hadoop YARN:作业调度和集群资源管理的框架。 Hadoop MapReduce:一种用于并行处理大型数据集的基于YARN的系统。
本文详细描述了Hadoop2.3.0安装步骤。其中有转载于其他部分的内容。
Linux运维-运维课程MP4频-06-大数据之Hadoop部署-23yarn介绍.mp4
Linux运维-运维课程MP4频-06-大数据之Hadoop部署-24yarn工作原理.mp4
Linux运维-运维课程MP4频-06-大数据之Hadoop部署-25yarn应用及测试.mp4
hadoop集群一键部署脚本
3.1 hdfs和yarn单机安装 17 3.1.1 配置主机和防火墙 17 3.2 hadoop基本shell命令 19 3.3 简单JAVA实例 20 4 伪分布式部署spark 20 4.1 下载spark 20 4.2 解压安装 20 4.3 安装scala. 20 4.4 配置spark的启动参数 21 ...
YARN的ResourceManager也存在单点故障问题,这个问题在hadoop-2.4.1得到了解决:有两个ResourceManager,一个是Active,一个是Standby,状态由zookeeper进行协调。 YARN框架下的MapReduce可以开启JobHistoryServer来...
hadoop2.x配置文件,一共八个文件,能够配置hadoop yarn等框架
第五天 hadoop2.x中HA机制的原理和全分布式集群安装部署及维护 01-zookeeper.avi 02-zookeeper2.avi 03-NN高可用方案的要点1.avi 04-hadoop-HA机制的配置文件.avi 05-hadoop分布式集群HA模式部署.avi 06-hdfs...
详细介绍Spark2.3.0和Hadoop2.7.4集群在RedHat服务器部署,内涵hadoop 基于NFS 的HA高可用模式, yarn HA高可用, zookeeper安装,spark集群部署,NFS目录创建。对相关参数有详细介绍,以及提供了涉及到的Linux命令...
针对Hadoop云平台的安装,部署,主要包括hadoop,hive,yarn的配置说明,使用的版本是Apache官方开源版本.