DataX读取Hive Orc格式表丢失数据处理记录

DataX读取Hive Orc格式表丢失数据处理记录

问题 问题概述 DataX读取Hive Orc存储格式表数据丢失 问题详细描述 同步Hive表将数据发送到Kafka,Hive表A数据总量如下 SQL:select count(1) from A; 数量:19397281 使用DataX将表A数据发送到Kafka,最终打印读取数据量为1264945...

DATAX hdfsreader读取hive orc 写入mongodb读取端丢数

有张分区每个分区后 5000kw 的表,并行导了几天的数进mongodb, 部分日期 出现 数据丢失。整个过程 datax无报错 ,有的日期丢失超过1000w数据。导入过程后两天出现过 hdfs空间满的情况,也就是 导入时 空间使用率很高,预计超过95%是否现有机制下,在空间不足时读失败,无对应日志...

datax的hdfsreader读取大的orc表行数不够

数据源是一张orc格式的hive表,是用datax从mysql导入hive的,每天分区大约有3800万行;现在通过hdfsreader和mysqlwriter从hive导回mysql,只能读出8065000行,少了3000万行,是有什么限制吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

社区圈子

DataWorks
DataWorks
DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。作为阿里巴巴数据中台的建设者,DataWorks从2009年起不断沉淀阿里巴巴大数据建设方法论,同时与数万名政务/金融/零售/互联网/能源/制造等客户携手,助力产业数字化升级。
2700+人已加入
加入
相关电子书
更多
基于 Flink CDC 打造 企业级实时数据集成方案
全链路数据治理-全域数据集成
Flink CDC:新一代数据集成框架
立即下载 立即下载 立即下载