可在使用表正则表达式的任意位置中使用TABLE()函数。TABLE()函数返回SETOF ANYELEMENT(任意类型的一组值)。例如,如果传递给此函数的参数是dates数组,则TABLE()将返回SETOF dates。如果传递给此函数的参数是paths数组,则TABLE()将返回...
在Hologres中使用 CREATE TABLE LIKE 创建一张分区表示例如下:创建一个分区表-新增一个字段ds,并将表设置为以ds为分区的分区表 CALL hg_create_table_like('new_table',$select*,"b"as ds from src_table$,'partition by list(ds)');...
Bootstrap插件在bootstrap-plugins文件夹中。若需要使用这些插件,可以将目标插件的jar文件放入/plugins文件夹下。支持插件列表 关于下面的插件,官方认为可能存在性能影响或者使用限制,所以只在第三方仓库发布。更多信息请参见 SkyAPM ...
Bootstrap插件在bootstrap-plugins文件夹中。若需要使用这些插件,可以将目标插件的jar文件放入/plugins文件夹下。支持插件列表 关于下面的插件,官方认为可能存在性能影响或者使用限制,所以只在第三方仓库发布。更多信息请参见 SkyAPM ...
例如在Hologres V2.1版本中使用CREATE TABLE WITH语法配置动态分区时,auto_partitioning.enable 参数名需改为 auto_partitioning_enable。参数 是否必选 说明 是否可更新 auto_partitioning.enable 否 是否启用动态分区管理,取值说明如下...
aliyun-sql插件是基于Apache Calcite开发的部署在服务端的SQL解析插件,使用此插件您可以像使用普通数据库一样使用SQL语句查询Elasticsearch中的数据,从而极大地降低您学习和使用Elasticsearch的成本。背景信息 与开源的SQL插件相比,...
选中 是否使用limit分页 后,进行SQL查询时,系统将自动在SELECT语句中追加LIMIT语句。分页大小 分页大小。选中 是否使用limit分页 后,需要配置。同步最大记录数 每次同步最大记录数。默认值为 0,表示无限制。是否使用CheckPoint 选中该...
如果当前的 inputs 配置无法满足日志解析需求,您可以在 插件配置 中添加processors配置,即添加Logtail插件处理数据。例如提取字段、提取日志时间、脱敏数据、过滤日志等。更多信息,请参见 使用Logtail插件处理数据。{"inputs":[{"type":...
如果当前的 inputs 配置无法满足日志解析需求,您可以在 插件配置 中添加processors配置,即添加Logtail插件处理数据。例如提取字段、提取日志时间、脱敏数据、过滤日志等。更多信息,请参见 使用Logtail插件处理数据。{"inputs":[{"type":...
配置Kafka JSON Catalog后,您可以在Flink全托管作业开发中直接访问Kafka集群中格式为JSON的Topic,无需再定义Schema。本文为您介绍如何在Flink全托管模式下创建、查看及删除Kafka JSON Catalog。背景信息 Kafka JSON Catalog通过自动解析...
本教程介绍如何使用Kafka Connect的Source Connector将MySQL的数据同步至 云消息队列 Kafka 版。背景信息 Kafka Connect主要用于将数据流输入和输出 云消息队列 Kafka 版。Kafka Connect主要通过各种Source Connector的实现,将数据从第三...
本教程介绍如何使用Kafka Connect的Source Connector将SQL Server的数据同步至 云消息队列 Kafka 版。前提条件 在开始本教程前,请确保您已完成以下操作:已下载SQL Server Source Connector。具体信息,请参见 SQL Server Source ...
本文为您介绍如何使用DataWorks数据集成,将Kafka集群上的数据迁移至MaxCompute。前提条件 开通MaxCompute和DataWorks。在DataWorks上完成创建业务流程,本例使用DataWorks简单模式。详情请参见 创建业务流程。搭建Kafka集群 进行数据迁移...
本文为您介绍如何使用DataWorks数据集成,将Kafka集群上的数据迁移至MaxCompute。前提条件 开通MaxCompute和DataWorks。新增MaxCompute数据源。详情请参见 创建MaxCompute数据源。在DataWorks上完成创建业务流程,本例使用DataWorks简单...
可使用Connector任务中已配置的目标Kafka实例,也可使用新实例。实例需要与数据库实例处于同一个VPC中。该实例需要开启自由使用Group能力。更多信息,请参见 自由使用Group。database.history.kafka.topic:此Topic用于记录数据库所有...
OGG for Bigdata是Oracle官方的将数据库数据实时流式传输到大数据系统的工具,对于Oracle19c及以下的版本均可以支持,目前OGG for Bigdata可以将数据写入Kafka,而DataHub已经兼容Kafka Producer协议,所以用户除了使用DataHub插件将Oracle...
说明 作业名称在当前项目中必须保持唯一。adbpg-test 存储位置 指定该作业的代码文件所属的文件夹。您还可以在现有文件夹右侧,单击 图标,新建子文件夹。作业草稿 引擎版本 当前作业使用的Flink的引擎版本。引擎版本号含义、版本对应关系...
说明 作业名称在当前项目中必须保持唯一。adbpg-test 存储位置 指定该作业的代码文件所属的文件夹。您还可以在现有文件夹右侧,单击 图标,新建子文件夹。作业草稿 引擎版本 当前作业使用的Flink的引擎版本。引擎版本号含义、版本对应关系...
Dataphin中支持使用Lock Table和Unlock table对物理表进行锁定和解锁。例如,Insert语句执行异常后,该表或分区将被锁住无法操作,这时您可以通过unlock table语法解锁表或分区。本文为您介绍Lock Table、Unlock Table及Show Locks语法。...
JOIN PolarDB-X 支持在SELECT语句的table_references中使用如下JOIN语法:table_references:escaped_table_reference[,escaped_table_reference].escaped_table_reference:table_reference|{ OJ table_reference } table_reference:table_...
JOIN PolarDB-X 1.0 支持在SELECT语句的table_references中使用如下JOIN语法:table_references:escaped_table_reference[,escaped_table_reference].escaped_table_reference:table_reference|{ OJ table_reference } table_reference:...
Server创建完成后,您可以在Hologres中使用 CREATE FOREIGN TABLE 创建外部表或 IMPORT FOREIGN SCHEMA 语法单独或者批量创建外部表,用于读取DLF抽取的OSS数据。说明 如果OSS外部表存在和Holo内表同名的表,IMPORT FOREIGN SCHEMA会跳过该...
ALTER TABLE 用于更改一个现有表的定义。简介 ALTER TABLE 更改一个现有表的定义。下文描述了几种形式。注意每一种形式所要求的锁级别可能不同。如果没有明确说明,将会获得一个 ACCESS EXCLUSIVE 锁。当给出多个子命令时,获得的锁将是子...
CONDITION="condition_string"#使用TABLE和CONDITION中的内容计算物理库表名称[,NODE="node_list"])#过滤通过CONDITION计算出的结果,仅保留指定物理库#将SQL语句下发到指定分库分表上执行,显式指定物理表名 SCAN([TABLE=]"table_name_...
结果:schema_name|table_name-+-public|a(1 row)查看某张表所在的Table Group SELECT property_value AS table_group_name FROM hologres.hg_table_properties WHERE property_key='table_group' AND table_name='<table_name>';...
RDS PostgreSQL支持使用pg_squeeze插件,该插件提供了一种在线重新组织和清理表的功能,在不影响在线读写的前提下,减少表和索引占用的空间,提高空间利用率。前提条件 已完成如下参数配置。如何修改参数,请参见 设置实例参数。wal_level...
重要 本插件使用原生语言开发,仅支持在 uni-app 开发框架开发的 Android 或 iOS 应用中使用,无法在其他各类小程序中使用。在项目中引入插件 创建 uni-app 项目。如果您还未创建 uni-app 项目,可参考DCloud官方文档 通过HBuilder可视化...
插件配置 ark.plugin.active.include:指定激活哪些插件,多个插件使用英文逗号(,)分隔。默认激活 Ark 包中所有的插件。ark.plugin.active.exclude:指定排除哪些插件,多个插件使用英文逗号(,)分隔。默认为空。重要 如果同时配置了这...
} } 分析结果分页 您可以使用SQL中的Limit语法实现分析结果分析显示,示例如下所示:limit Offset,Line 参数说明如下所示:offset:指定从某一行开始读取分析结果。line:指定当前请求读取的行数,最大值为1,000,000。如果一次读取太多,会...
使用限制 在PL/pgSQL存储过程中使用pg_hint_plan插件的限制如下:提示只对以下类型的语句生效:返回一行的查询(SELECT、INSERT、UPDATE、DELETE)。返回多行的查询(RETURN QUERY)。执行SQL语句(EXECUTE QUERY)。打开游标(OPEN)。对...
使用限制 在PL/pgSQL存储过程中使用pg_hint_plan插件的限制如下:提示只对以下类型的语句生效:返回一行的查询(SELECT、INSERT、UPDATE、DELETE)。返回多行的查询(RETURN QUERY)。执行SQL语句(EXECUTE QUERY)。打开游标(OPEN)。对...
E-MapReduce的Flink Table Store服务支持在Hive中查询数据。本文通过示例为您介绍如何在Hive中查询Flink Table Store中的数据。使用限制 仅EMR-3.45.0版本、EMR-5.11.0版本的集群,支持在Hive中查询Flink Table Store中的数据。操作步骤 ...
语法介绍 如果您打算添加大量的数据到分区表中,可以使用ALTER TABLE…EXCHANGE PARTITION命令来进行批量加载。您也可以使用ALTER TABLE…EXCHANGE PARTITION命令来删除旧数据或不再需要的数据。ALTER TABLE…EXCHANGE PARTITION命令有以下...
E-MapReduce的Flink Table Store服务支持在Trino中查询数据。本文通过示例为您介绍如何在Trino中查询Flink Table Store中的数据。使用限制 仅EMR-3.45.0版本、EMR-5.11.0版本的集群,支持在Trino中查询Flink Table Store中的数据。操作步骤...
附录:脚本Demo与参数说明 附录:离线任务脚本配置方式 如果您配置离线任务时使用脚本模式的方式进行配置,您需要在任务脚本中按照脚本的统一格式要求编写脚本中的reader参数和writer参数,脚本模式的统一要求请参见 通过脚本模式配置离线...
本示例中table就是OSS中存放文件的Object。创建OSS表 CREATE EXTERNAL TABLE IF NOT EXISTS dla_table_1(id bigint NOT NULL COMMENT '',origin_state varchar NOT NULL COMMENT '',origin_zip varchar NOT NULL COMMENT '',destination_...
您可以使用 SHOW CREATE TABLE 查看外键名称:SHOW CREATE TABLE child\G*1.row*Table:child Create Table:CREATE TABLE `child`(`id` int(11)DEFAULT NULL,`parent_id` int(11)DEFAULT NULL,CONSTRAINT `child_ibfk_1` FOREIGN KEY(`...
且OSS Bucket中table Object下已经上传了dla_table_1、dla_table_2文件。CREATE EXTERNAL TABLE IF NOT EXISTS dla_table_1(id bigint NOT NULL COMMENT '',origin_state varchar NOT NULL COMMENT '',origin_zip varchar NOT NULL COMMENT...
安装并配置VNodectl命令行工具后,您可以使用VNodectl来管理VNode、插件等。本文列举了VNodectl常用命令供您参考。说明 vnode命令均支持添加-dry 进行客户端校验。执行vnode命令的过程中,如果遇到API版本兼容的错误,请添加-kubernetes-...
Hologres支持为实时报表等场景提供分页能力,本文为您介绍几种常见的分页实践,您可以根据业务需求选择合适的方案,以达到更佳的查询性能。分页决策树 分页SQL命令语法如下。SELECT.FROM.ORDER BY key LIMIT N OFFSET S SQL实现原理:对于...