flink 读取mongo的时候,发过来的数据 source.ts_ms 时间戳不够精确(需求,一张

flink 读取mongo的时候,发过来的数据 source.ts_ms 时间戳不够精确(需求,一张

这个需求,用flink 做是不是不太合适

读取 hive 的3张表,每月读取一次,输出2个结果,一个结果是每月汇总,一个结果是几个月(从年头开始)汇总

实时数据分析:使用Flink实时发现最热Github项目

1 课时 |
404 人已学 |
免费

实时数据接入:5分钟上手 Flink MySQL 连接器

1 课时 |
204 人已学 |
免费

大数据知识图谱系列—基于ELK+Flink日志全观测最佳实践

1 课时 |
174 人已学 |
免费
开发者课程背景图

请问,现在我在flink流处理当中,需求对一个字段进行分组,当有一条数据携带

此外,为了帮助大家更加深入了解EMR StarRocks,我们推出了EMR StarRocks 白皮书,供各位小伙伴学习参考,免费下载! 白皮书下载:https://developer.aliyun.com/ebook/7585 内容一览表: ? StarRocks 新?代极速全场景 MPP 数据仓...

请问,现在我在flink流处理当中,需求对一个字段进行分组,当有一条数据携带某个特殊字段的时候,我要

请问,现在我在flink流处理当中,需求对一个字段进行分组,当有一条数据携带某个特殊字段的时候,我要把这个分组合并发走。有什么好的方式来判断这个特殊的字段(我目前想到的是window中的trigger)

Flink 监控的基本需求是什么?

Flink 监控的基本需求是什么?

目前Flink 提供了Tuple1 ~ Tuple25,在实际开发中不能满足我们的需求

目前Flink 提供了Tuple1 ~ Tuple25,在实际开发中不能满足我们的需求,我们希望能有更大的元组,比如构建一个Tuple50。 请问有什么解决的方案? 谢谢 *来自志愿者整理的flink邮件归档

Flink SQL GROUP BY后写入postgresql数据库主键如何实现业务场景需求呢?

SQL中对时间窗口和PRODUCT_ID进行了Group By聚合操作,PG数据表中的主键须设置为WINDOW_START /WINDOW_END和PRODUCT_ID,否则无法以upinsert方式写出数据,但是这样却无法满足业务场景的需求,业务上应以RANK_ID +WINDOW_ST...

Flink 中该如何实现“Group By聚合操作”这个需求?

SQL中对时间窗口和PRODUCT_ID进行了Group By聚合操作,PG数据表中的主键须设置为WINDOW_START /WINDOW_END和PRODUCT_ID,否则无法以upinsert方式写出数据,但是这样却无法满足业务场景的需求,业务上应以RANK_ID +WINDOW_ST...

为什么说Flink可以最大化满足实时化的需求?

为什么说Flink可以最大化满足实时化的需求?

请教个问题,就是flink的窗口触发必须是有数据才会触发吗?我现在有个这样的需求,就是存在窗口内没有

请教个问题,就是flink的窗口触发必须是有数据才会触发吗?我现在有个这样的需求,就是存在窗口内没有流数据进入,但是窗口结束是要触发去外部系统获取上一个窗口的结果值作为本次窗口的结果值!现在没有流数据进入窗口结束时如何触发? 本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。 点击这里欢...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里云实时计算Flink
阿里云实时计算Flink
一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。
199201+人已加入
加入
相关电子书
更多
基于 Flink SQL + Paimon 构建流式湖仓新方
基于 Flink CDC 打造 企业级实时数据集成方案
李劲松|Flink Table Store 典型应用场景
立即下载 立即下载 立即下载