Flink的 CTAS 目标库为starrocks,为什么报错呢?

Flink的 CTAS 目标库为starrocks,为什么报错呢?语句时照抄 https://help.aliyun.com/zh/emr/emr-on-ecs/user-guide/use-the-ctas-and-cdas-statements-of-realtime-compute-for-a...

在使用Flink CDC从MySQL进行实时同步至目标库的场景中,如何解决生产环境中的问题?

在使用Flink CDC从MySQL进行实时同步至目标库的场景中,如何解决生产环境中由于MySQL连接数过多而造成的源数据库压力过大的问题?特别是在Flink 3.0版本下,针对运行在YARN上的任务管理(而非Kubernetes),以及对于存量客户可能存在的SQL自定义需求和资源管理的案例呢?

实时数据分析:使用Flink实时发现最热Github项目

1 课时 |
404 人已学 |
免费

实时数据接入:5分钟上手 Flink MySQL 连接器

1 课时 |
204 人已学 |
免费

大数据知识图谱系列—基于ELK+Flink日志全观测最佳实践

1 课时 |
174 人已学 |
免费
开发者课程背景图

Flink CDC在使用flink-cdc 从mysql 进行实时同步到目标库的方案中,这种怎么办?

Flink CDC里请问大家在使用flink-cdc 从mysql 进行实时同步到目标库的方案中,有没有遇到mysql 连接数过多从而对mysql源产生巨大的压力,在生产环境下,这个问题怎么解决?3.0 版本我们之前做过一些初步的调研测试, 和当前的业务有些差异。 1. 当前我们的flink 任务运...

Flink CDC如果我只要针对某个数据库,解析cdc的事件,然后同步到目标库吗?

Flink CDC如果我只要针对某个数据库,开发一个不那么通用的同步工具,是不是可以直接参考对应数据库的flink-cdc-connectors,解析cdc的事件,然后同步到目标库?想做个oracle到mongo的,实时同步,不依赖flink啥的?

Flink CDC中我想用cdc同步新增的数据但是在测试的时为什么写入到目标库的时候数据减少了很多?

Flink CDC中我想用cdc同步新增的数据,更新和删除的不管, 但是在测试的时候发现,写入到目标库的时候数据减少了很多 ,有知道可能是什么原因的吗?没对数据做任何出处理, 就是 source - filter - sink。

还有一个Flink CDC问题,比如数据读出来后放到kakfa,然后自己sink 到目标库, 这?

还有一个Flink CDC问题,比如数据读出来后放到kakfa,然后自己sink 到目标库, 这个是自己拼接sql吗?这样是不是还要根据字段的类型来进行拼接?

大佬们Flink CDC中是不是oracle现在只能做源库不能做目标库?

大佬们Flink CDC中是不是oracle现在只能做源库不能做目标库?

flink CDC只能一个一个的单表配置写入目标库吗?如果表很多岂不是很难受?没有提供相seatun

flink CDC只能一个一个的单表配置写入目标库吗?如果表很多岂不是很难受?没有提供相seatunnel那样的一个配置文件就可以实现多个表的同步处理?

flink sql cdc mysql delete数据怎么过滤,还是说目标库自己会兼容

flink sql cdc mysql delete数据怎么过滤,还是说目标库自己会兼容

谁遇到过这个问题,flink 版本1.14.2,table api 查询是可以的。写入目标库的时候既

谁遇到过这个问题,flink 版本1.14.2,table api 查询是可以的。写入目标库的时候既没有报错也没有写入成功

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里云实时计算Flink
阿里云实时计算Flink
一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。
199202+人已加入
加入
相关电子书
更多
基于 Flink SQL + Paimon 构建流式湖仓新方
基于 Flink CDC 打造 企业级实时数据集成方案
李劲松|Flink Table Store 典型应用场景
立即下载 立即下载 立即下载

实时计算 Flink版库相关内容