# 上传至node01并解压
cd /export/softwares
tar -zxvf hbase-2.1.0-bin.tar.gz -C ../servers/
cd ../servers/
# 删除官方帮助文档(减少分发时间)
rm -rf docs/
# 修改配置文件
cd /export/servers/hbase-2.1.0/conf
# hbase-site.sh
- 显示行号
: set nu
- 28
export JAVA_HOME=/export/servers/jdk1.8.0_261
- 125 去掉注释(表示禁止使用HBase自带的Zookeeper)
export HBASE_MANAGES_ZK=false
# hbase-site.xml
<configuration>
<!-- 指定HBase数据在HDFS上的存储路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://node01:8020/hbase</value>
</property>
<!-- 设置hbase模式为集群模式 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- Master绑定的端口,包括backup-master -->
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>
<!-- 指定HBase数据在HDFS上的存储路径 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>node01:2181,node02:2181,node03:2181</value>
</property>
<!-- 设置ZK数据存放目录 -->
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/export/servers/zookeeper-3.4.9/zkdatas</value>
</property>
<!-- 属性为所有新建的列指定一个全局的默认的最大版本数 -->
<property>
<name>hbase.column.max.version</name>
<value>3</value>
</property>
</configuration>
# 修改第三个配置文件 regionservers
cd /export/servers/hbase-2.1.0/conf
vim regionservers
改为:
node01
node02
node03
# 创建 backup-masters配置文件,实现 HMaster 的高可用
cd /export/servers/hbase-2.1.0/conf
vim backup-masters
写入
node02
# 软件包分发
scp -r hbase-2.1.0/ node02:$PWD
scp -r hbase-2.1.0/ node03:$PWD
# 三台机器创建软连接(拷贝原文件,并随着原文件的变动而变动)
ln -s /export/servers/hadoop-2.7.5/etc/hadoop/core-site.xml /export/servers/hbase-2.1.0/conf/core-site.xml
ln -s /export/servers/hadoop-2.7.5/etc/hadoop/hdfs-site.xml /export/servers/hbase-2.1.0/conf/hdfs-site.xml
# home环境变量配置
vim /etc/profile
export HBASE_HOME=/export/servers/hbase-2.1.0
export PATH=:$HBASE_HOME/bin:$PATH
source /etc/profile
# hbase 集群启动
cd /export/servers/hbase-2.1.0/bin
start-hbase.sh
页面访问
http://node01:16010/master-status

#
原文:https://www.cnblogs.com/alidata/p/13429783.html