博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop分布式 之 Hbase集群搭建
阅读量:4094 次
发布时间:2019-05-25

本文共 10977 字,大约阅读时间需要 36 分钟。

HBase简介

  HBase是Apache 中的一个子项目,是一个HBase是一个开源的、分布式的、多版本的、面向列的、非关系(NoSQL)的、可伸缩性分布式数据存储模型,Hbase依托于Hadoop的HDFS作为最基本存储基础单元。HBase的服务器体系结构遵从简单的主从服务器架构,它由HRegion Server群和HMaster Server构成。HMaster Server负责管理所有的HRegion Server,而HBase中的所有Server都是通过Zookeeper进行的分布式信息共享与任务协调的工作。HMaster Server本身并不存储HBase中的任何数据,HBase逻辑上的表可能会被划分成多个Region,然后存储到HRegionServer群中,HRegionServer响应用户I/O请求,向HDFS文件系统中读写数据。HBase Master Server中存储的是从数据到HRegion Server的映射。

  下面一幅图是Hbase在Hadoop Ecosystem中的位置

  

  上图描述了Hadoop EcoSystem中的各层系统,其中HBase位于结构化存储层,Hadoop HDFS为HBase提供了高可靠性的底层存储支持,Hadoop MapReduce为HBase提供了高性能的计算能力,Zookeeper为HBase提供了稳定服务和failover机制。 此外,Pig和Hive还为HBase提供了高层语言支持,使得在HBase上进行数据统计处理变的非常简单。 Sqoop则为HBase提供了方便的RDBMS数据导入功能,使得传统数据库数据向HBase中迁移变的非常方便。

1,系统环境配置

  • 安装hadoop
  • 安装zookeeper 

2,下载与安装:

  • Hbase 版本必需 与 Hadoop 版本匹配,否则会安装失败或不能正常使用。关于两者何种版本能正常匹配,可以看官方文档查看 hbase 官方文档(),找到与 hadoop 版本对应的 hbase 并下载()
  • 使用tar解压hbase
    1
    2
    3
    cd /usr/local
    tar -zxvf hbase-1.2.1-bin.tar.gz
    mv /home/hbase
  • 使用vi /etc/profile设置环境变量

3,系统参数配置

配置工作具体如下:

  • 使用 vi /home/hbase/conf/hbase-env.sh 修改系统环境
    1
    2
    3
    export JAVA_HOME=/usr/local/jdk1.
    8
    export HBASE_PID_DIR=/home/hbase/pid #使用mkdir /home/hbase/pid命令先创建
    export HBASE_MANAGES_ZK=
    false
    #不适用内置zookeeper,使用我们自己安装的(具体指定使用哪个zookeeper是通过/etc/profile中的ZK_HOME变量来指定的)
  • vi conf/hbase-site.xml 配置系统参数
    hbase.rootdir
    hdfs://master:9000/hbase
    设置 hbase 数据库存放数据的目录,这里是放在hadoop hdfs上,这里要与hadoop的core-site.xml文件中的fs.default.name中的值一致,然后在后面添加自己的子目录,我这里定义是hbase
    hbase.cluster.distributed
    true
    打开 hbase 分布模式
    hbase.master
    master
    指定 hbase 集群主控节点
    hbase.tmp.dir
    /home/user/tmp/hbase
    hbase的一些临时文件存放目录。
    hbase.zookeeper.quorum
    master,slave1,slave2
    指定 zookeeper 集群节点名 , 因为是由 zookeeper 表决算法决定的
    hbase.zookeeper.property.clientPort
    2181
    连接到zookeeper的端口,默认是2181
  • vi  conf/regionservers 该文件指定了HRegionServer进程将在哪些节点上运行
    msaterslave1slave2
  如果有多个master,需要执行
 vi conf/backup-masters,加入备份master节点,这里可以参考:
  • 向其他节点传递安装,使用下列命令
    1
    2
    scp /home/hbase root
    @slave1
    :/home/
    scp /home/hbase root
    @slave2
    :/home/

    完成后使用vi /etc/profile 设置各自节点的环境变量

4,启动hbase服务

启动hbase前要确保,hadoop,zookeeper已经启动,进入$HBASE_HOME/bin目录下,输入命令start-hbase.sh

执行jps查看系统进程

其他节点

启动日志会输出到/home/hbase/logs/hbase-root-master-master.log中,可以查看排除异常

5,测试

启动完成后,执行如下命令可以进入到hbase shell界面,使用命令status检查集群节点状态

这里可以使用 hbase shell命令执行数据库操作,具体参考  

另外也可以直接打开网址:http://192.168.137.122:16010/master-status,在web中查看集群状态,其中192.168.137.122是master所在节点的IP,16010为hbase默认端口(老版本中为60010)

 

6,错误

本次安装测试中主要出现了一下几个错误:

  • 各节点节点时间不一致
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    org.apache.hadoop.hbase.ClockOutOfSyncException: org.apache.hadoop.hbase.ClockOutOfSyncException: Server hadoopslave2,
    60020
    ,
    1372320861420
    has been rejected; Reported time is too far out of sync with master.  Time difference of 143732ms > max allowed of 30000ms
            
    at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
            
    at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:
    57
    )
            
    at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:
    45
    )
            
    at java.lang.reflect.Constructor.newInstance(Constructor.java:
    525
    )
            
    at org.apache.hadoop.ipc.RemoteException.instantiateException(RemoteException.java:
    95
    )
            
    at org.apache.hadoop.ipc.RemoteException.unwrapRemoteException(RemoteException.java:
    79
    )
            
    at org.apache.hadoop.hbase.regionserver.HRegionServer.reportForDuty(HRegionServer.java:
    2093
    )
            
    at org.apache.hadoop.hbase.regionserver.HRegionServer.run(HRegionServer.java:
    744
    )
            
    at java.lang.Thread.run(Thread.java:
    722
    )
    Caused by: org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hbase.ClockOutOfSyncException: Server hadoopslave2,
    60020
    ,
    1372320861420
    has been rejected; Reported time is too far out of sync with master.  Time difference of 143732ms > max allowed of 30000ms

    在各节点的hbase-site.xml文件中加入下列代码

    hbase.master.maxclockskew
    200000
  • Directory is not empty
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.fs.PathIsNotEmptyDirectoryException): `/hbase/WALs/slave1,
    16000
    ,
    1446046595488
    -splitting is non empty': Directory is not empty
        
    at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.deleteInternal(FSNamesystem.java:
    3524
    )
        
    at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.deleteInt(FSNamesystem.java:
    3479
    )
        
    at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.delete(FSNamesystem.java:
    3463
    )
        
    at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.delete(NameNodeRpcServer.java:
    751
    )
        
    at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.delete(ClientNamenodeProtocolServerSideTranslatorPB.java:
    562
    )
        
    at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$
    2
    .callBlockingMethod(ClientNamenodeProtocolProtos.java)
        
    at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:
    585
    )
        
    at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:
    928
    )
        
    at org.apache.hadoop.ipc.Server$Handler$
    1
    .run(Server.java:
    2013
    )
        
    at org.apache.hadoop.ipc.Server$Handler$
    1
    .run(Server.java:
    2009
    )
        
    at java.security.AccessController.doPrivileged(Native Method)
        
    at javax.security.auth.Subject.doAs(Subject.java:
    415
    )
        
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:
    1614
    )
        
    at org.apache.hadoop.ipc.Server$Handler.run(Server.java:
    2007
    )
     
        
    at org.apache.hadoop.ipc.Client.call(Client.java:
    1411
    )
        
    at org.apache.hadoop.ipc.Client.call(Client.java:
    1364
    )
        
    at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:
    206
    )
        
    at com.sun.proxy.$Proxy15.delete(Unknown Source)
        
    at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.delete(ClientNamenodeProtocolTranslatorPB.java:
    490
    )
        
    at sun.reflect.GeneratedMethodAccessor7.invoke(Unknown Source)
        
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:
    43
    )
        
    at java.lang.reflect.Method.invoke(Method.java:
    606
    )
        
    at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:
    187
    )
        
    at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:
    102
    )
        
    at com.sun.proxy.$Proxy16.delete(Unknown Source)
        
    at sun.reflect.GeneratedMethodAccessor7.invoke(Unknown Source)
        
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:
    43
    )
        
    at java.lang.reflect.Method.invoke(Method.java:
    606
    )
        
    at org.apache.hadoop.hbase.fs.HFileSystem$
    1
    .invoke(HFileSystem.java:
    279
    )
        
    at com.sun.proxy.$Proxy17.delete(Unknown Source)
        
    at sun.reflect.GeneratedMethodAccessor7.invoke(Unknown Source)
        
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:
    43
    )
        
    at java.lang.reflect.Method.invoke(Method.java:
    606
    )
        
    at org.apache.hadoop.hbase.fs.HFileSystem$
    1
    .invoke(HFileSystem.java:
    279
    )
        
    at com.sun.proxy.$Proxy17.delete(Unknown Source)
        
    at org.apache.hadoop.hdfs.DFSClient.delete(DFSClient.java:
    1726
    )
        
    at org.apache.hadoop.hdfs.DistributedFileSystem$
    11
    .doCall(DistributedFileSystem.java:
    588
    )
        
    at org.apache.hadoop.hdfs.DistributedFileSystem$
    11
    .doCall(DistributedFileSystem.java:
    584
    )
        
    at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:
    81
    )
        
    at org.apache.hadoop.hdfs.DistributedFileSystem.delete(DistributedFileSystem.java:
    584
    )
        
    at org.apache.hadoop.hbase.master.SplitLogManager.splitLogDistributed(SplitLogManager.java:
    297
    )
        
    at org.apache.hadoop.hbase.master.MasterFileSystem.splitLog(MasterFileSystem.java:
    400
    )
        
    at org.apache.hadoop.hbase.master.MasterFileSystem.splitLog(MasterFileSystem.java:
    373
    )
        
    at org.apache.hadoop.hbase.master.MasterFileSystem.splitLog(MasterFileSystem.java:
    295
    )
        
    at org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure.splitLogs(ServerCrashProcedure.java:
    388
    )
        
    at org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure.executeFromState(ServerCrashProcedure.java:
    228
    )
        
    at org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure.executeFromState(ServerCrashProcedure.java:
    72
    )
        
    at org.apache.hadoop.hbase.procedure2.StateMachineProcedure.execute(StateMachineProcedure.java:
    119
    )
        
    at org.apache.hadoop.hbase.procedure2.Procedure.doExecute(Procedure.java:
    452
    )
        
    at org.apache.hadoop.hbase.procedure2.ProcedureExecutor.execProcedure(ProcedureExecutor.java:
    1050
    )
        
    at org.apache.hadoop.hbase.procedure2.ProcedureExecutor.execLoop(ProcedureExecutor.java:
    841
    )
        
    at org.apache.hadoop.hbase.procedure2.ProcedureExecutor.execLoop(ProcedureExecutor.java:
    794
    )
        
    at org.apache.hadoop.hbase.procedure2.ProcedureExecutor.access$
    400
    (ProcedureExecutor.java:
    75
    )
        
    at org.apache.hadoop.hbase.procedure2.ProcedureExecutor$
    2
    .run(ProcedureExecutor.java:
    479
    )

    参考https://issues.apache.org/jira/browse/HBASE-14729,进入hadoop文件系统,删除掉报错的目录或真个WALs

  • TableExistsException: hbase:namespace
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    zookeeper.MetaTableLocator: Failed verification of hbase:meta,,
    1
    at address=slave1,
    16020
    ,
    1428456823337
    , exception=org.apache.hadoop.hbase.NotServingRegionException: Region hbase:meta,,
    1
    is not online on worker05,
    16020
    ,
    1428461295266
            
    at org.apache.hadoop.hbase.regionserver.HRegionServer.getRegionByEncodedName(HRegionServer.Java:
    2740
    )
            
    at org.apache.hadoop.hbase.regionserver.RSRpcServices.getRegion(RSRpcServices.java:
    859
    )
            
    at org.apache.hadoop.hbase.regionserver.RSRpcServices.getRegionInfo(RSRpcServices.java:
    1137
    )
            
    at org.apache.hadoop.hbase.protobuf.generated.AdminProtos$AdminService$
    2
    .callBlockingMethod(AdminProtos.java:
    20862
    )
            
    at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:
    2031
    )
            
    at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:
    107
    )
            
    at org.apache.hadoop.hbase.ipc.RpcExecutor.consumerLoop(RpcExecutor.java:
    130
    )
            
    at org.apache.hadoop.hbase.ipc.RpcExecutor$
    1
    .run(RpcExecutor.java:
    107
    )
            
    at java.lang.Thread.run(Thread.java:
    745
    )

    HMaster启动之后自动挂掉(或非正常重启),并且master的log里出现“TableExistsException: hbase:namespace”字样;

    很可能是更换了Hbase的版本过后zookeeper还保留着上一次的Hbase设置,所以造成了冲突.
    删除zookeeper信息,重启之后就没问题了

    1
    2
    3
    4
    # sh zkCli.sh -server slave1:
    2181
    [zk: slave1:
    2181
    (CONNECTED)
    0
    ] ls /
    [zk: slave1:
    2181
    (CONNECTED)
    0
    ] rmr /hbase
    [zk: slave1:
    2181
    (CONNECTED)
    0
    ] quit

1,参考

  • Hbase系统架构及数据结构 
  • HRegionServer详解 
  • HBase深入分析之RegionServer 
  • Base 超详细介绍 
  • 搭建Zookeeper与Hbase过程及遇到的问题总结 
  • hadoop hbase维护问题总结 
  • HBase集群安装过程中的问题集锦 
  • hadoop集群,hbase集群常见错误 

转载地址:http://lntii.baihongyu.com/

你可能感兴趣的文章
Android中AsyncTask的简单用法
查看>>
Jenkins 启动命令
查看>>
剑指offer算法题分析与整理(三)
查看>>
JVM并发机制探讨—内存模型、内存可见性和指令重排序
查看>>
WAV文件解析
查看>>
WPF中PATH使用AI导出SVG的方法
查看>>
QT打开项目提示no valid settings file could be found
查看>>
java LinkedList与ArrayList迭代器遍历和for遍历对比
查看>>
如何用好碎片化时间,让思维更有效率?
查看>>
带WiringPi库的交叉笔译如何处理二之软链接概念
查看>>
Java8 HashMap集合解析
查看>>
自定义 select 下拉框 多选插件
查看>>
fastcgi_param 详解
查看>>
Spring AOP + Redis + 注解实现redis 分布式锁
查看>>
poj 1976 A Mini Locomotive (dp 二维01背包)
查看>>
《计算机网络》第五章 运输层 ——TCP和UDP 可靠传输原理 TCP流量控制 拥塞控制 连接管理
查看>>
《PostgreSQL技术内幕:查询优化深度探索》养成记
查看>>
剑指_复杂链表的复制
查看>>
FTP 常见问题
查看>>
shell 快捷键
查看>>