博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop安装配置使用
阅读量:6952 次
发布时间:2019-06-27

本文共 3360 字,大约阅读时间需要 11 分钟。

hot3.png

系统:Centos6.5

三台机器

IP            主机名称192.168.2.101 node1(主)192.168.2.154 node2(从)192.168.2.187 node3(从)

修改主机对应Ip (每台机器)

vi /etc/hosts

161739_qYNB_2744276.png

Java环境:jdk1.8(每台机器)

创建java目录

mkdir /usr/local/java/

161211_NkXX_2744276.png

解压jdk安装包

tar -zxvf jdk-8u121-linux-x64.tar.gz

161332_vG9v_2744276.png

复制到java目录下

mv jdk1.8.0_121/ /usr/local/java/

161505_ENvR_2744276.png

配置环境

vi /etc/profileJAVA_HOME=/usr/local/java/jdk1.8.0_121/JRE_HOME=/usr/local/java/jdk1.8.0_121/jrePATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/binCLASSPATH=:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/libexport JAVA_HOME JRE_HOME PATH CLASSPATH

161612_3igh_2744276.png

配置生效

source /etc/profile

配置ssh免密码登陆

进入cd /root/.ssh/目录下

每台机器执行:ssh-keygen -t rsa  一路回车

161944_WwtF_2744276.png

生成两个文件,一个私钥,一个公钥,在master1中执行:cp id_rsa.pub authorized_keys

162023_PlAk_2744276.png

设置本机无密码登陆

chmod 644 authorized_keys

重启sshd服务 service sshd restart

登陆测试:ssh node1

162033_pvRU_2744276.png

设置其他节点无密码登陆

scp authorized_keys node2:/root/.ssh/

scp authorized_keys node3:/root/.ssh/

162053_1XyD_2744276.png

 

接下来是hadoop安装配置

Hadoop2.8.1版本

下载位置:链接:http://pan.baidu.com/s/1eRBREdc 密码:h3wf

解压         tar –zxvf hadoop-2.8.1.tar.gz

拷贝到/usr/local/ 目录下

修改名称cp hadoop-2.8.1 hadoop

Hadoop配置文件配置

cd /usr/local/hadoop/etc/hadoop/

162326_xShD_2744276.png

vi core-site.xml

162341_hiYa_2744276.png

fs.default.name - 这是一个描述集群中NameNode结点的URI(包括协议、主机名称、端口号),集群里面的每一台机器都需要知道NameNode的地址。DataNode结点会先在NameNode上注册,这样它们的数据才可以被使用。独立的客户端程序通过这个URI跟DataNode交互,以取得文件的块列表

hadoop.tmp.dir 是hadoop文件系统依赖的基础配置,很多路径都依赖它。如果hdfs-site.xml中不配 置namenode和datanode的存放位置,默认就放在这个路径中

fs.default.name
hdfs://node1:9000
hadoop.tmp.dir
/usr/local/hadoop/tmp

vi hdfs-site.xml

162428_uf9S_2744276.png

dfs.replication -它决定着 系统里面的文件块的数据备份个数。对于一个实际的应用,它 应该被设为3(这个           数字并没有上限,但更多的备份可能并没有作用,而且会占用更多的空间)。少于三个的备份,可能会影响到数据的         可靠性(系统故障时,也许会造成数据丢失)

dfs.replication
1
dfs.webhdfs.enabled
true
dfs.permissions
false

vi mapred-site.xml.template

162500_JhHl_2744276.png

mapreduce.framework.name
yarn
mapreduce.jobhistory.address
Master:10020
mapreduce.jobhistory.webapp.address
Master:19888

vi slaves 加入节点名称

162522_wHw6_2744276.png

node1node2node3

vi yarn-site.xml

162537_ISgF_2744276.png

yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler
yarn.resourcemanager.address
node1:8032
yarn.resourcemanager.scheduler.address
node1:8030
yarn.resourcemanager.resource-tracker.address
node1:8031
yarn.resourcemanager.admin.address
node1:8033
yarn.resourcemanager.webapp.address
node1:8088

将hadoop目录 拷贝到每台机器上面

scp -r /usr/local/hadoop/  node2:/usr/local/scp -r /usr/local/hadoop/  node3:/usr/local/

162613_zP3E_2744276.png

在每台机器上 格式化生效

在hadoop目录下 :bin/hdfs namenode –format

162629_uDEn_2744276.png

进入cd /usr/local/hadoop/sbin/目录下启动hadoop

./start-dfs.sh

162651_kbyL_2744276.png

启动成功页面

162705_wRWC_2744276.png

 

转载于:https://my.oschina.net/zqouba/blog/1556745

你可能感兴趣的文章
java NIO
查看>>
声音就是你的武器!这样的攻防大赛你一定没有见过!
查看>>
CUDA入门(六) 异步并行执行解析
查看>>
内容分发网络(CDN)关键技术、架构与应用(一)
查看>>
linux 添加链接与删除链接(ln命令的用法)
查看>>
HTTP中Get与Post的区别
查看>>
Dart基础-泛型和库
查看>>
Android中文API(114)——TabWidget
查看>>
virtualenv 安装及使用[转]
查看>>
MDataTable属性RecordsAffected新应用:WebService与Json交互的记录总数
查看>>
Dev GridView 绑定List<T>、BindingList <T>、BindingSource
查看>>
【Go语言】【17】GO语言杂谈
查看>>
SSTable详解
查看>>
Java 反射常用方法
查看>>
PhotoShop如何给字体添加下划线
查看>>
Kafka 处理器客户端介绍
查看>>
关于虚拟机virtualbox使用无线卡上网的设置
查看>>
深入Jetty源码之HttpGenerator
查看>>
常用Linux命令
查看>>
MySQL内核月报 2014.11-MySQL· 5.7改进·Recovery改进
查看>>