HBase安装下载与集群(高可用)

一、准备

1.1 安装zookeeper

zookeeper 安装下载与集群

1.2 安装HADOOP

hadoop搭建集群搭建

1.3下载HBase

https://mirrors.tuna.tsinghua.edu.cn/apache/hbase/

二、正常部署

2.1 检查是否正常启动

在这里插入图片描述

2.2解压

tar -zvxf hbase-2.4.11-bin.tar.gz

2.3配置环境变量

vim /etc/profile.d/my_env.sh 
#HBASE_HOME
export HBASE_HOME=/usr/local/src/hbase/hbase-2.4.11
export PATH=$HBASE_HOME/bin:$PATH                          

在这里插入图片描述
source环境变量

source /etc/profile.d/my_env.sh

2.4修改配置

2.4.1 配置hbase-env.sh 不使用habse自带的zookeeper

vim  $HBASE_HOME/conf/hbase-env.sh
export HBASE_MANAGES_ZK=false

在这里插入图片描述

2.4.2 配置habse-site.xml

 vim  $HBASE_HOME/conf/hbase-site.xml



<configuration><property><name>hbase.zookeeper.quorumname><value>hadoop100,hadoop101,hadoop102value><description>The directory shared by RegionServers.description>property><property><name>hbase.rootdirname><value>hdfs://hadoop100:9000/hbasevalue><description>The directory shared by RegionServers.description>property><property><name>hbase.cluster.distributedname><value>truevalue>property>
configuration>

配置regionservers

vim $HBASE_HOME/conf/regionserver
hadoop100
hadoop101
hadoop102

在这里插入图片描述

2.4.4 使用 Hadoop 的 jar 包,解决 HBase 和 Hadoop 的 log4j 兼容性问题

 mv $HBASE_HOME/lib/client-facing-thirdparty/slf4j-reload4j-1.7.33.jar $HBASE_HOME/lib/client-facing-thirdparty/slf4j-reload4j-1.7.33.jar.bak

2.4.5 分发给其他节点

scp -r /usr/local/src/hbase root@hadoop102:/usr/local/src
scp -r /usr/local/src/hbase root@hadoop101:/usr/local/src

环境变量

scp -r /etc/profile.d/my_env.sh root@hadoop101:/etc/profile.d
scp -r /etc/profile.d/my_env.sh root@hadoop102:/etc/profile.d

记得source环境变量

source /etc/profile.d/my_env.sh

2.5 启动

2.5.1单点启动

$HBASE_HOME/bin/hbase-daemon.sh start master

2.5.2 群启

$HBASE_HOME/bin/start-hbase.sh 

2.6 报错

Error: JAVA_HOME is not set

在这里插入图片描述

2.6.1原因是没配置JAVA_HOME

vim $HBASE_HOME/conf/hbase-env.sh 
export JAVA_HOME=/usr/local/software/jdk/jdk1.8.0_131/

在这里插入图片描述
记得要分发给其他节点,其他节点的JAVA_HOME可能也不同,需要注意

重新启动
在这里插入图片描述

Failed to load class "org.slf4j.impl.StaticLoggerBinder"

在这里插入图片描述
如果启动一直报
Defaulting to no-operation (NOP) logger implementation
请看
2.4.4 使用 Hadoop 的 jar 包,解决 HBase 和 Hadoop 的 log4j 兼容性问题
如果还是有,看是哪个节点报错,直接删除,再重新把hbase重新分发过去

还是会的话
我看是102节点有问题,
我把102节点2.4.4修改的jar包改回来,重新启动后,就可以了
在这里插入图片描述

三、高可用

vim $HBASE_HOME/conf/backup-masters

写入你需要做为备份主节点的ip
在这里插入图片描述
记得分发
重新启动
在这里插入图片描述
备份主节点的时候是还不会有region servers的信息,只有单主节点挂了,他才会拉取region servers信息
在这里插入图片描述


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部