flink cdc写hdfs文件的时候,如果开启文件合并的话,最终的文件不能通过hive映射读取吗?

flink cdc写hdfs文件的时候,文件格式设置为parquet,压缩方式为GZIP,存在一个问题,如果开启文件合并的话,最终的文件不能通过hive映射读取,如果不开启的话,可以正常读取,这个怎么解决啊?

flink 写hive表,开启文件合并没生效是什么原因?

flink 写hive表,开启文件合并没生效是什么原因?

实时数据分析:使用Flink实时发现最热Github项目

1 课时 |
404 人已学 |
免费

实时数据接入:5分钟上手 Flink MySQL 连接器

1 课时 |
204 人已学 |
免费

大数据知识图谱系列—基于ELK+Flink日志全观测最佳实践

1 课时 |
174 人已学 |
免费
开发者课程背景图

flink直接写入的内表呢?没有做小文件合并操作性能高吗?

flink直接写入的内表呢?没有做小文件合并操作性能高吗?

flink写入odps有参数设置可以定时做小文件合并吗

flink写入odps有参数设置可以定时做小文件合并吗?

Flink SQL FileSystem Connector 分区提交与自定义小文件合并策略

Flink SQL FileSystem Connector 分区提交与自定义小文件合并策略

作者:LittleMagic 之前笔者在介绍 Flink 1.11 Hive Streaming 新特性时提到过,Flink SQL 的 FileSystem Connector 为了与 Flink-Hive 集成的大环境适配,做了很多改进,而其中最为明显的就是分区提交(partition comm...

大家flink的checkpoint的小文件合并是如何搞的?

我想请教下,大家flink的checkpoint的小文件合并是如何搞的?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里云实时计算Flink
阿里云实时计算Flink
一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。
199201+人已加入
加入
相关电子书
更多
基于 Flink SQL + Paimon 构建流式湖仓新方
基于 Flink CDC 打造 企业级实时数据集成方案
李劲松|Flink Table Store 典型应用场景
立即下载 立即下载 立即下载