本文为您介绍如何使用Datastream作业读取DataHub数据写入HBase。
前提条件
- 本地安装了Java JDK 8。
- 本地安装了Maven 3.x。
- 本地安装了用于Java或Scala开发的IDE,推荐IntelliJ IDEA,且已配置完成JDK和Maven环境。
- 在DataHub上创建了Topic,并且Topic中存在测试数据。
说明 测试数据需要有3个字段,数据类型依次为BOOLEAN、STRING和STRING。
- 创建与实时计算独享模式同一地域下相同VPC的HBase示例,并创建表和列簇。通过Shell访问HBase集群步骤请参见使用Shell访问。
说明
- 本示例为标准版HBase。
- 实时计算集群IP需要添加至HBase白名单。
背景信息
注意 仅Blink 3.x版本支持本示例。
开发
上线
请参见上线完成作业上线。
本示例对应的作业内容如下。
说明 作业上线前,请在开发页面右侧的资源配置页签,配置源表的并发数,源表并发数不能大于源表的Shard数,否则作业启动后JM(Job Manager)报错。
--完整主类名,必填。
blink.main.class=Hbase_Demo.HbaseDemo
--作业名称。
blink.job.name=datahub_demo
--包含完整主类名的JAR包资源名称,多个JAR包时必填。
--blink.main.jar=Hbase_Demo-1.0-snapshot.jar
--默认statebackend配置,当作业代码没有显式配置时生效。
state.backend.type=niagara
state.backend.niagara.ttl.ms=129600000
--默认checkpoint配置,当作业代码没有显式配置时生效。
blink.checkpoint.interval.ms=180000
说明 您可以设置自定义参数,详情请参见自定义参数。
验证
常见问题
在作业运行时,如果界面出现如下类似的错误,表示存在JAR包冲突。java.lang.AbstractMethodError:com.alibaba.fastjson.support.jaxrs.FastJsonAutoDiscoverable.configure(Lcom/alibaba/blink/shaded/datahub/javax/ws/rs/core/FeatureContext;)

建议您使用maven-shade-plugin插件的Relocation功能,解决JAR包冲突的问题。
<relocations combine.self="override">
<relocation>
<pattern>org.glassfish.jersey</pattern>
<shadedPattern>com.alibaba.blink.shaded.datahub.org.glassfish.jersey</shadedPattern>
</relocation>
</relocations>
在文档使用中是否遇到以下问题
更多建议
匿名提交