Flink CDC里 为啥我只有最初读的内容 读不到后面增删改的操作呀?

Flink CDC里 为啥我只有最初读的内容 读不到后面增删改的操作呀?我现在 更新 只有after 没有before是咋回事?

Flink CDC我们的tidb一个表大概200-300个字段,增删改都有。这种cdc是否可以支持?

Flink CDC里我们的tidb一个表大概200-300个字段,增删改都有。这种cdc是否可以支持?

实时数据分析:使用Flink实时发现最热Github项目

1 课时 |
404 人已学 |
免费

实时数据接入:5分钟上手 Flink MySQL 连接器

1 课时 |
204 人已学 |
免费

大数据知识图谱系列—基于ELK+Flink日志全观测最佳实践

1 课时 |
174 人已学 |
免费
开发者课程背景图

Flink CDC里我们的tidb版本是6.5,什么时候支持啊?

Flink CDC里我们的tidb版本是6.5,我看cdc最新2.3.0支持6.0.0。对于6.5版本,社区有计划大概什么时候支持吗?我们的tidb一个表大概200-300个字段,增删改都有。这种cdc是否可以支持?对于flink 的sink,上游有增删改的情况下,有什么推荐的组件吗?

请问Flink CDC这个mysql-cdc输出的op列(黄框,代表数据的增删改)能否捕获使用?

问题1:请问Flink CDC这个mysql-cdc输出的op列(黄框,代表数据的增删改)能否捕获使用(比如写入临时表进行使用)?现在这样写能够print出op列,但不能写入数据库?问题2:加上这个op_ts列吗?这个似乎是本地时间戳,不是 +U,+I,-U这一类型呀。能否指教更多一点?

请问Flink CDC这个mysql-cdc输出的op列(黄框,代表数据的增删改)能否写入临时表?

请问Flink CDC这个mysql-cdc输出的op列(黄框,代表数据的增删改)能否写入临时表进行使用?现在这样能够print,但不能写入数据库?

Flink CDC中oracle数据的每条记录增删改都会实时同步到pg是吧?第一次全量同步快吗 ?比

Flink CDC中oracle数据的每条记录增删改都会实时同步到pg是吧?第一次全量同步快吗 ?比如我oracle数据一张表现在5000万条 大概需要多久同步到pg呢?

我想问下,我现在启动Flink CDC 为什么会将我整张表的数据读取一边,可以不读取吗,只捕获增删改

我想问下,我现在启动Flink CDC 为什么会将我整张表的数据读取一边,可以不读取吗,只捕获增删改操作。我现在的表1kw,他直接给我读了一遍。

Flink增删改可以实时同步嘛?

Flink增删改可以实时同步嘛?

Flink CDC官方确定 ddl目前还没有解析吗,只限于数据增删改变化吗?

Flink CDC官方确定 ddl目前还没有解析吗,只限于数据增删改变化吗?

如何创建flink cdc与doris的连接,然后执行自定义拼接的增删改语句?

如何创建flink cdc与doris的连接,然后执行自定义拼接的insert,update或者delete语句,这个有人知道吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里云实时计算Flink
阿里云实时计算Flink
一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。
199201+人已加入
加入
相关电子书
更多
基于 Flink SQL + Paimon 构建流式湖仓新方
基于 Flink CDC 打造 企业级实时数据集成方案
李劲松|Flink Table Store 典型应用场景
立即下载 立即下载 立即下载