** 纯转载 **
当我们用HBase 存储实时数据的时候, 如果要做一些数据分析方面的操作, 就比较困难了, 要写MapReduce Job。 Hive 主要是用来做数据分析的数据仓库,支持标准SQL 查询, 做数据分析很是方便,于是便很自然地想到用Hive来载入HBase的数据做分析, 但是很奇怪地是, 上网查了一下, 只看到以下两种情况:
- 如何用Hive 往HBase里面插入大量的数据。
- Hive 与HBase集成, 直接从Hive里面连HBase的数据库进行查询。参考链接: https://cwiki.apache.org/confluence/display/Hive/HBaseIntegration
选项1是我们需求的逆操作, 直接忽略, 选项2, 虽然没有做专门的Benchmark, 但总感觉直接对HBase进行查询操作不怎么靠谱, 如果我们要频繁做很多类型的数据分析, 那HBase的压力一定会倍增。
难道没有把HBase里面的数据直接导入到Hive当中的工具或者方法吗?
找了一会, 似乎没找到, 那么只好自己想一个解决方案了。
思路:
利用选项2, 先打通Hive对HBase指定表的全表访问, 再建立一个新的空表, 把查询出来的数据全部导入到新表当中, 以后的所有数据分析操作在新表中完成。
说干就干, 让我们试一个简单的例子。
- 首先在HBase里面建一个表, 名为 student, 包含 id 和 name 两个column
1
2hbase shell
create 'student', 'id', 'name' - 向表中插入两行数据 注意:在插入数据的时候一定要指定column (如id:val, name:val) 直接使用column family (如 id, name) 去存数据会导致后面Hive 建表的时候有问题。
1
2
3
4put 'student', 'row1', 'id:val', '1'
put 'student', 'row1', 'name:val', 'Tony'
put 'student', 'row2', 'id:val', '2'
put 'student', 'row2', 'name:val', 'Mike' - 扫描此表, 确定数据已经插入
1
2
3
4
5
6scan 'student'
ROW COLUMN+CELL
row1 column=id:val, timestamp=1384939342989, value=1
row1 column=name:val, timestamp=1384939365511, value=Tony
row2 column=id:val, timestamp=1384939351444, value=2
row2 column=name:val, timestamp=1384939379245, value=Mike - 从Hive建立可以访问HBase的外部表
1
2
3
4CREATE EXTERNAL TABLE student(key string, id int, name string)
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" = "id:val,name:val")
TBLPROPERTIES("hbase.table.name" = "student"); - Hive中建立一个新的空表 但是此时这个表实际上是一个虚拟表, 实际的数据还在HBase中。 下面需要在Hive中另建一个结构一样的空表, 再把数据导出来。
1
2
3
4select * from student;
OK
row1 1 Tony
row2 2 Mike - Hive中建立一个新的空表
1
2
3
4
5
6
7CREATE TABLE new_student (
key string,
id INT,
name STRING)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t'
STORED AS TEXTFILE; - 将数据从HBase中导入到新的Hive表中 至此大功告成!
1
2
3
4
5INSERT OVERWRITE TABLE new_student SELECT * FROM student;
select * from new_student;
OK
row1 1 Tony
row2 2 Mike
以后所有复杂的数据查询和数据分析都可以在new_student表中完成。