[帮助文档] 使用SQL扫描数据表超过限额

当使用SQL查询数据出现扫描到的行数或者数据量超过限制的情况时,您可以根据具体的查询条件创建二级索引或多元索引来优化查询。

各位有没有遇到过spark sql查询hudi 数据时没有办法查到flink cdc ?

各位有没有遇到过spark sql查询hudi 数据时没有办法查到flink cdc 同步到hudi实时数据的变化,用hive是没有问题的。但是我重开一个spark sql客户端数据就能发现变化了?

如何在 PolarDB-X 中优化慢 SQL

2 课时 |
113 人已学 |
免费

SQL完全自学手册

61 课时 |
3601 人已学 |
免费

SQL Server on Linux入门教程

14 课时 |
4329 人已学 |
免费
开发者课程背景图

[帮助文档] SQL窗口新交互模式下变更表数据和结构

新交互模式的SQL Console基于原SQL Console进行了升级,升级后的SQL Console支持在执行SQL前备份数据、定时执行SQL、预估SQL执行耗时和异步执行SQL等功能。

[帮助文档] 通过Spark SQL读Lindorm数据

AnalyticDB MySQL湖仓版(3.0)支持通过Spark SQL访问Lindorm数据库。本文主要介绍如何通过Spark SQL访问Lindorm中的Hive表和宽表的数据。

[帮助文档] 如何获取SQl查询返回的日期类型数据

使用SQL语句查询到时间类型(包括Datetime、Date和Time)数据后,您可以需要根据实际获取具体数据。

请教一个sql作业做把postgresql同步到hudi,源表历史数据比较多,存量同步时需要把并行度

请教一个sql作业做把postgresql同步到hudi,源表历史数据比较多,存量同步时需要把并行度设置比较大才能尽快同步过来,可是实时的数据量不大,这样到了实时阶段并行度就浪费了, 如果手工重启就太麻烦了,咱们cdc connector怎么配置能自动到了实时阶段把并行度自动调小?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

数据库
数据库
分享数据库前沿,解构实战干货,推动数据库技术变革
253177+人已加入
加入
相关电子书
更多
PolarDB NL2SQL: 帮助您写出准确、优化的SQL
基于 Flink SQL + Paimon 构建流式湖仓新方
SQL智能诊断优化产品SQLess蚂蚁最佳实践
立即下载 立即下载 立即下载