集群规划
IP地址 | 主机名 | 集群身份 |
---|---|---|
192.168.138.100 | hadoop00 | 主节点 |
192.168.138.101 | hadoop01 | 从节点 |
192.168.138.102 | hadoop02 | 从节点 |
Hadoop完全分布式环境搭建请移步传送门
先在主节点上进行安装和配置,随后分发到各个从节点上。
1. 安装zookeeper
1.1 解压zookeeper并添加环境变量
1)解压zookeeper到/usr/local文件夹下
tar -zxvf /usr/local
2)进入/usr/local文件夹将apache-zookeeper-3.8.0-bin改名为zookeeper
cd /usr/local mv apache-zookeeper-3.8.0-bin/ zookeeper
3)添加环境变量
vim /etc/profile
# zookeeper环境变量 export ZOOKEEPER_HOME=/usr/local/zookeeper export PATH=$PATH:$ZOOKEEPER_HOME/bin
使配置立即生效
source /etc/profile
1.2 进行集群配置
1)创建文件夹
在$ZOOKEEPER_HOME/下创建data/zkData
mkdir data mkdir data/zkData
2)进入$ZOOKEEPER_HOME/conf文件夹下
cd $ZOOKEEPER_HOME/conf
复制模版文件
cat zoo_sample.cfg >> zoo.cfg
修改zoo.cfg
………… dataDir=/usr/local/zookeeper/data/zkData ………… # 集群配置 server.1=hadoop00:2888:3888 server.2=hadoop01:2888:3888 server.3=hadoop02:2888:3888
3)在$ZOOKEEPER_HOME/data/zkData/目录下创建myid文件
cd $ZOOKEEPER_HOME/data/zkData touch myid
myid文件内容为编号,与zoo.cfg中集群配置的编号对应,如果是server.1(即hadoop00)的myid内容为1,依次类推。
echo 1 >> myid scp /usr/local/zookeeper/ hadoop01:/usr/local/ # 不要忘记改myid scp /usr/local/zookeeper/ hadoop02:/usr/local/ scp /etc/profile hadoop01:/etc/profile # 不要忘记执行 source /etc/profile 使文件立即生效 scp /etc/profile hadoop02:/etc/profile
4)启动zookeeper
分别在三台虚拟机上启动zookeeper
zkServer.sh start # 运行 zkServer.sh stop # 停止 zkServer.sh status # 查看状态,需要启动所有结点的zookeeper才显示enabled
2. 安装Hbase
2.1 解压Hbase并添加环境变量
1)解压hbase并重命名
tar -zxvf hbase-2.5.3-bin.tar.gz -C /usr/local/ cd /usr/local mv hbase-2.5.3-bin.tar.gz hbase
2)添加环境变量
vim /etc/profile
………… # hbase环境变量 export HBASE_HOME=/usr/local/hbase export PATH=$PATH:$HBASE_HOME/bin
使修改立即生效:
source /etc/profile
2.2 进行集群配置
1)修改hbase-env.sh文件
进入/usr/local/hbase/conf目录下
cd /usr/local/hbase/conf
修改hbase-env.sh(文件内容前插入)
………… # JDK路径 export JAVA_HOME=/usr/local/jdk # 设置使用外置的zookeeper export HBASE_MANAGES_ZK=false
2)修改hbase-site.xml
hbase.master.maxclockskew 180000 hbase.rootdir hdfs://hadoop00:9000/hbase hbase.cluster.distributed true hbase.zookeeper.quorum hadoop00,hadoop01,hadoop02 hbase.zookeeper.property.dataDir /usr/local/zookeeper/data/zkData hbase.tmp.dir /usr/local/hbase/tmp hbase.unsafe.stream.capability.enforce false
3)复制hadoop的core-site.xml和hdfs-site.xml到hbase的conf目录下:
cp /usr/local/hadoop/etc/hadoop/core-site.xml /usr/local/hbase/conf/ cp /usr/local/hadoop/etc/hadoop/hdfs-site.xml /usr/local/hbase/conf/
4)在/usr/local/hbase/conf/文件夹下的regionservers文件添加集群的所有主机的主机名
vim regionservers
# 将文件内容中删除后添加 hadoop00 hadoop01 hadoop02
5)分发和运行
将hbse和环境变量分发到另外两台从节点:
scp -r /usr/local/hbase/ hadoop01:/usr/local/hbase scp -r /usr/local/hbase/ hadoop02:/usr/local/hbase scp -r /etc/profile hadoop01:/etc/profile scp -r /etc/profile hadoop02:/etc/profile
运行hbase
注:hbase启动之前,一定要先启动zookeeper,且集群所有的节点都要启动!!!否则使用不了hbase即使守护进程都存在
检查zookeeper的状态
在主节点上执行:
zkServer.sh status
出现下图为正常:
start-hbase.sh # 运行 stop-hbase.sh # 停止
进入hbase shell,查看其状态是否正常。
hbase shell status # 进入shell后执行
如下图则正常:
猜你喜欢
- 5天前(鄂尔多斯航空公司客服电话)架起“北方之路” ,中国联合航空带您飞向鄂尔多斯重回1倍速
- 5天前(福朋喜来登酒店宴会厅)福朋喜来登品牌亮相北部湾城市群 阳江中心福朋喜来登酒店开业
- 5天前(“为人民绽放——国家艺术基金优秀剧目展演”在合肥开幕)“为人民绽放——国家艺术基金优秀剧目展演”在合肥开幕
- 5天前(云南滇陇工程咨询有限公司)陇滇携手谋发展 文旅合作谱新篇
- 5天前(新西兰“空降”上海:新西兰旅游局邀请你来“玩真的”!)新西兰“空降”上海:新西兰旅游局邀请你来“玩真的”!
- 5天前(锦州新增两家国家aaa级旅游景区有哪些)锦州新增两家国家AAA级旅游景区
- 5天前(大连aaaaa景区)辽宁大连A级旅游景区应急救护水平整体跃升
- 5天前(大黄山景区高质量发展联盟成立多少年)大黄山景区高质量发展联盟成立
- 5天前(携程租车加盟合作)携程租车加盟优势全解析:开启旅游出行市场新篇章
- 5天前(锦江 iu)锦江荟APP原生鸿蒙版正式上线打造全场景旅行服务新体验
网友评论
- 搜索
- 最新文章
- (2020广州车展哈弗)你的猛龙 独一无二 哈弗猛龙广州车展闪耀登场
- (哈弗新能源suv2019款)智能科技颠覆出行体验 哈弗重塑新能源越野SUV价值认知
- (2021款全新哈弗h5自动四驱报价)新哈弗H5再赴保障之旅,无惧冰雪护航哈弗全民电四驱挑战赛
- (海南航空现况怎样)用一场直播找到市场扩张新渠道,海南航空做对了什么?
- (visa jcb 日本)优惠面面俱到 JCB信用卡邀您畅玩日本冰雪季
- (第三届“堡里有年味·回村过大年”民俗花灯会活动)第三届“堡里有年味·回村过大年”民俗花灯会活动
- (展示非遗魅力 长安启源助力铜梁龙舞出征)展示非遗魅力 长安启源助力铜梁龙舞出征
- (阿斯塔纳航空公司)阿斯塔纳航空机队飞机数量增至50架
- (北京香港航班动态查询)香港快运航空北京大兴新航线今日首航
- (我在港航“呵护”飞机 每一次安全着陆就是最好的荣誉)我在港航“呵护”飞机 每一次安全着陆就是最好的荣誉
- 热门文章