系统:Centos6.5
三台机器
IP 主机名称192.168.2.101 node1(主)192.168.2.154 node2(从)192.168.2.187 node3(从)
修改主机对应Ip (每台机器)
vi /etc/hosts
Java环境:jdk1.8(每台机器)
创建java目录
mkdir /usr/local/java/
解压jdk安装包
tar -zxvf jdk-8u121-linux-x64.tar.gz
复制到java目录下
mv jdk1.8.0_121/ /usr/local/java/
配置环境
vi /etc/profileJAVA_HOME=/usr/local/java/jdk1.8.0_121/JRE_HOME=/usr/local/java/jdk1.8.0_121/jrePATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/binCLASSPATH=:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/libexport JAVA_HOME JRE_HOME PATH CLASSPATH
配置生效
source /etc/profile
配置ssh免密码登陆
进入cd /root/.ssh/目录下
每台机器执行:ssh-keygen -t rsa 一路回车
生成两个文件,一个私钥,一个公钥,在master1中执行:cp id_rsa.pub authorized_keys
设置本机无密码登陆
chmod 644 authorized_keys
重启sshd服务 service sshd restart
登陆测试:ssh node1
设置其他节点无密码登陆
scp authorized_keys node2:/root/.ssh/
scp authorized_keys node3:/root/.ssh/
接下来是hadoop安装配置
Hadoop2.8.1版本
下载位置:链接:http://pan.baidu.com/s/1eRBREdc 密码:h3wf
解压 tar –zxvf hadoop-2.8.1.tar.gz
拷贝到/usr/local/ 目录下
修改名称cp hadoop-2.8.1 hadoop
Hadoop配置文件配置
cd /usr/local/hadoop/etc/hadoop/
vi core-site.xml
fs.default.name - 这是一个描述集群中NameNode结点的URI(包括协议、主机名称、端口号),集群里面的每一台机器都需要知道NameNode的地址。DataNode结点会先在NameNode上注册,这样它们的数据才可以被使用。独立的客户端程序通过这个URI跟DataNode交互,以取得文件的块列表
hadoop.tmp.dir 是hadoop文件系统依赖的基础配置,很多路径都依赖它。如果hdfs-site.xml中不配 置namenode和datanode的存放位置,默认就放在这个路径中
fs.default.name hdfs://node1:9000 hadoop.tmp.dir /usr/local/hadoop/tmp
vi hdfs-site.xml
dfs.replication -它决定着 系统里面的文件块的数据备份个数。对于一个实际的应用,它 应该被设为3(这个 数字并没有上限,但更多的备份可能并没有作用,而且会占用更多的空间)。少于三个的备份,可能会影响到数据的 可靠性(系统故障时,也许会造成数据丢失)
dfs.replication 1 dfs.webhdfs.enabled true dfs.permissions false
vi mapred-site.xml.template
mapreduce.framework.name yarn mapreduce.jobhistory.address Master:10020 mapreduce.jobhistory.webapp.address Master:19888
vi slaves 加入节点名称
node1node2node3
vi yarn-site.xml
yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.resourcemanager.address node1:8032 yarn.resourcemanager.scheduler.address node1:8030 yarn.resourcemanager.resource-tracker.address node1:8031 yarn.resourcemanager.admin.address node1:8033 yarn.resourcemanager.webapp.address node1:8088
将hadoop目录 拷贝到每台机器上面
scp -r /usr/local/hadoop/ node2:/usr/local/scp -r /usr/local/hadoop/ node3:/usr/local/
在每台机器上 格式化生效
在hadoop目录下 :bin/hdfs namenode –format
进入cd /usr/local/hadoop/sbin/目录下启动hadoop
./start-dfs.sh
启动成功页面