有没有什么办法通过一个 flink CDC同步来实现?

我们现在是有三个DRDS, 然后每个DRDS下面又各自挂有一定数量的RDS,是要做三个Flink CDC同步嘛?还是说 有没有什么办法通过一个 flink CDC同步来实现

各位有没有遇到过spark sql查询hudi 数据时没有办法查到flink cdc ?

各位有没有遇到过spark sql查询hudi 数据时没有办法查到flink cdc 同步到hudi实时数据的变化,用hive是没有问题的。但是我重开一个spark sql客户端数据就能发现变化了?

实时数据分析:使用Flink实时发现最热Github项目

1 课时 |
404 人已学 |
免费

实时数据接入:5分钟上手 Flink MySQL 连接器

1 课时 |
204 人已学 |
免费

大数据知识图谱系列—基于ELK+Flink日志全观测最佳实践

1 课时 |
174 人已学 |
免费
开发者课程背景图

有什么办法让flink在windows运行?

有什么办法让flink在windows运行?单机都行

有什么办法让flink在windows运行,单机都行?

有什么办法让flink在windows运行,单机都行?

有什么办法让flink只查询cache的数据?

使用flink sql 的lookup join,一边是kafka流表,一边是mysql维表,我启用了cache,有什么办法让flink只查询cache的数据,如果查不到就直接输出join结果,不要再去mysql里查数据?

单机模式下,有没有办法可以通过flink CDC实时获取到mongodb的数据和变化呢 ?

单机模式下,有没有办法可以通过flink CDC实时获取到mongodb的数据和变化呢 ?单机版有其他方案可以解决吗?

有没有办法控制flink在cdc读取完mysql存量数据?

有没有办法控制flink在cdc读取完mysql存量数据,开始读取增量数据的时候才开始读取其他数据源的数据?现在cdc和kafka source同时执行,就会出现kafka数据读进来开始处理的时候,cdc还没有从mysql中读取到配置信息。

大佬们,有一个小问题:有什么办法可以将一个POJO对象,转化为Flink的RowData呢?

大佬们,有一个小问题:有什么办法可以将一个POJO对象,转化为Flink的RowData呢?不需要自己手动解析。

有办法用flink-sql实现吗?

有办法用flink-sql实现吗?

mysql端有没有办法查看 实时的各个连接过来的flink程序的serverid的?

mysql端有没有办法查看 实时的各个连接过来的flink程序的serverid的?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里云实时计算Flink
阿里云实时计算Flink
一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。
199201+人已加入
加入
相关电子书
更多
基于 Flink SQL + Paimon 构建流式湖仓新方
基于 Flink CDC 打造 企业级实时数据集成方案
李劲松|Flink Table Store 典型应用场景
立即下载 立即下载 立即下载