FlinkCDC在通过flink集群提交jar时,会报错BlobServer错

FlinkCDC在通过flink集群提交jar时,会报错Caused by: java.io.IOException: Could not connect to BlobServer at address localhost/127.0.0.1:6124。提交的命令为:flink run -m **...

Flink CDC集群拓展lib目录是必须重启集群jar才会生效嘛?

Flink CDC集群拓展lib目录是必须重启集群jar才会生效嘛 能不能动态拓展 比如我新增一个jar直接放进去执行一个命令就可以直接用 而不用重启集群?

这是我们flinkCDC 集群下面的jar包情况,跟某些包有冲突。能看的出来么?

这是我们flinkCDC 集群下面的jar包情况,像是mongo的胖包,跟某些包有冲突。能看的出来么?

云效这里发布到集群了,但是日志提示无权限访问jar ,怎么处理?

云效这里发布到集群了,但是日志提示无权限访问jar ,怎么处理?我没找到可以配置权限的地方 ,日志提示这个 Error: Unable to access jarfile /application.jar,需要在dockerfile配置权限吗 ?

我没有运行在flink集群上,我把flink CDC打jar包了,使用java -jar执行的。那个

我没有运行在flink集群上,我把flink CDC打jar包了,使用java -jar执行的。那个flink内置了kafaka,它也是先将binlog采集到Kafka 不是这样吗?

Flink CDC中如果放到flink 集群里 我一个单jar 宕机了咋办?

Flink CDC中如果放到flink 集群里 我一个单jar 宕机了咋办?flink集群会做什么处理?就是我通过 webui 上传jar到flink 集群 ,那这个jar 是不是有多个实例。

大佬,Flink CDC提交集群的会把依赖包都打在自己的jar包里吗?然后就报错

大佬,Flink CDC提交集群的会把依赖包都打在自己的jar包里吗?然后就报错

在flink集群上面部署jar包,怎么让jar包均匀的在不同节点上运行?

在flink集群上面部署jar包,怎么让jar包均匀的在不同节点上运行?现在运行的时候,所有的集群任务都集中在一个节点上

E-MapReduce上的presto集群是否支持替换jar包

E-MapReduce上的presto集群是否支持替换jar包

我也有个问题,1.13.6的flink集群,在8081页面上传jar就直接报错,工程里面就一个job

我也有个问题,1.13.6的flink集群,在8081页面上传jar就直接报错,工程里面就一个job,本地运行好好的呀,怎么办?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。