[帮助文档] 创建Hive Catalog

配置Hive Catalog后,您可以在Flink开发控制台直接读取Hive元数据,无需再手动注册Hive表,提高作业开发的效率且保证数据的正确性。本文为您介绍如何配置Hive元数据、创建和使用Hive Catalog等。

[帮助文档] 注册Hive Kerberos集群

在实时计算控制台上注册Hive Kerberos集群信息后,可以访问支持Kerberos的Hive。本文为您介绍如何注册Hive Kerberos集群。

实时数据分析:使用Flink实时发现最热Github项目

1 课时 |
404 人已学 |
免费

实时数据接入:5分钟上手 Flink MySQL 连接器

1 课时 |
204 人已学 |
免费

大数据知识图谱系列—基于ELK+Flink日志全观测最佳实践

1 课时 |
174 人已学 |
免费
开发者课程背景图

[帮助文档] Hive中查询FlinkTableStore中的数据

E-MapReduce的Flink Table Store服务支持在Hive中查询数据。本文通过示例为您介绍如何在Hive中查询Flink Table Store中的数据。

在实时数仓的解决方案中,怎样凭借 Flink 的流式处理优势做到实时读写 Hive?

在实时数仓的解决方案中,怎样凭借 Flink 的流式处理优势做到实时读写 Hive?

Flink 1.11.2 读写Hive以及对hive的版本支持

我这面在flink中注册hivecatalog,想将kafka数据流式写入到hive表中,但是现在建立kafka表的时候默认会保存元数据到hive表,请问有办法不保存这个kafka元数据表吗?如果不注册hivecatalog的话没办法写数据到hive吧。。。。 *来自志愿者整理的flink邮件归档

Flink 1.11.2 读写Hive以及对hive的版本支持

Flink.11.2操作hive时,对hive的版本支持是怎样的 看官网介绍是支持1.0、1.1、1.2、2.0、2.1、2.2、2.3、3.1 我的执行环境: Flink : 1.11.2 Haoop : 2.6.0-cdh5.8.3 Hive : 1.1.0-cdh5.8.3 Job运行方式 :...

请问flink 什么时候支持读写ACID的hive表?

我们使用 flink.1.12 读取 ACID hive table 时报错(Reading or writing ACID table %s is not supported),我们尝试修改源码放开这个限制也会出现后续的一些错误如(cast转换 BytesColumnVector 为 LongCo...

flink sql-client 读写 Kerberos认证的hive问题?

您好! hive.metastore.sasl.enabled 是true 启动sql client的时候,可以正常读取到认证信息,并读取metastore的表名。 读和写,认证就失败了。*来自志愿者整理的flink邮件归档

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里云实时计算Flink
阿里云实时计算Flink
一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。
199201+人已加入
加入
相关电子书
更多
基于 Flink SQL + Paimon 构建流式湖仓新方
基于 Flink CDC 打造 企业级实时数据集成方案
李劲松|Flink Table Store 典型应用场景
立即下载 立即下载 立即下载