数据输出方法 表示在两个相邻的Stage间,上游向下游Stage传输数据时所用的方法。AnalyticDB MySQL版 支持以下数据输出方法。数据输出方法 说明 Broadcast 表示上游Stage中每个计算节点的数据都会复制到所有下游Stage的计算节点。...
内置变量可选值包括:EXECUTE_TIME(执行时间,Long类型)、DB_NAME_SRC(源端数据库名称,String类型)、DATASOURCE_NAME_SRC(源端数据源名称,String类型)、TABLE_NAME_SRC(源端表名,String类型)、DB_NAME_DEST(目标端数据库名称,...
页面变量提供了数据传递功能,支持用于交互动作、接口数据、样式配置等配置中。基本原理 页面变量管理:对页面变量进行管理,包括页面变量的新增、编辑、删除和默认值设置。赋值侧:支持将数据存储到指定页面变量中。目前,支持在交互动作...
事件 事件 说明 当自定义下钻层级数据接口请求完成时 数据接口请求返回并经过过滤器处理后抛出的事件,同时抛出处理后的JSON格式的数据。具体数据示例请参见画布编辑器中组件右侧配置面板 数据源 页签的 数据响应结果 区域。当内置世界陆地...
当变量设置为运行时设置后,流水线运行时需要设置变量的值。通常适用于需要动态配置流水线参数值场景。可以添加更多变量,也可以删除变量。单击 添加 后,需要保存流水线才可以将变量保存至流水线。保存完毕后即可按场景 使用环境变量。...
依托于日志采集组件多维度Kubernetes资源选择能力,采集JVM监控数据时,也支持通过环境变量、Kubernetes Labels、Namespace、Pod名称、容器名称过滤数据。更多信息,请参见 日志采集组件多维度Kubernetes资源选择能力。但不同的是由于RMI...
这会阻止在发生异常时执行无条件回滚 BEGIN/END 块内的所有数据库更新的操作。应用程序不得在自动提交模式下运行。如果自动提交模式打开,则会立即提交每个成功的数据库更新,并且无法撤消。打开或关闭自动提交模式的方式取决于应用程序。...
注意事项 由于相同地区的 PolarDB-X 数据库的审计日志均写入日志服务同一个Logstore中,查看当前 PolarDB-X 实例下的报表数据时,默认为您添加基于_topic_:polardbx_sqlaudit and instance_id:xxxxxxxxx 的过滤条件,表示查看当前实例下的...
数据结构 输入表的数据格式,由数据模型定义,在下拉列表中选择输入数据的逻辑表名称,表示该计算资源中提供数据的数据表的结构。当选择数据表时,需保证输入的模型与上游节点的输出数据模型相同。当选择星号(*)时,代表数据结构为任意...
数据结构 输入表的数据格式,由数据模型定义,在下拉列表中选择输入数据的逻辑表名称,表示该计算资源中提供数据的数据表的结构。当选择数据表时,需保证输入的模型与上游节点的输出数据模型相同。当选择星号(*)时,代表数据结构为任意...
数据结构 输入表的数据格式,由数据模型定义,在下拉列表中选择输入数据的逻辑表名称,表示该计算资源中提供数据的数据表的结构。当选择数据表时,需保证输入的模型与上游节点的输出数据模型相同。当选择星号(*)时,代表数据结构为任意...
数据结构 输入表的数据格式,由数据模型定义,在下拉列表中选择输入数据的逻辑表名称,表示该计算资源中提供数据的数据表的结构。当选择数据表时,需保证输入的模型与上游节点的输出数据模型相同。当选择星号(*)时,代表数据结构为任意...
Hologres离线数据节点,运行于Hologres云计算资源之上,支持对MaxCompute和Hologres类型的数据进行处理。本文介绍如何新建Hologres类型的公共节点。前提条件 已新建Hologres类型的云计算资源,具体操作,请参见 新建云计算资源。操作步骤 ...
声明包含变量、游标和可在块中包含的 SPL 语句中使用的其他类型的定义。一般而言,块中使用的所有变量都必须在块的声明部分中声明。变量声明包括分配给变量的名称及其数据类型。在变量声明中,变量也可以选择初始化为默认值。变量声明的...
配置节点依赖关系可以保障节点在运行时能取到正确的数据(读取上游表数据时,上游表的最新数据已产生),避免当前节点读取数据时,上游表数据还未产出,导致当前节点读取数据出现问题,所以,当节点存在上游节点依赖时,当前节点的执行,...
数据结构 输入表的数据格式,由数据模型定义,在下拉列表中选择输入数据的逻辑表名称,表示该计算资源中提供数据的数据表的结构。当选择数据表时,需保证输入的模型与上游节点的输出数据模型相同。当选择星号(*)时,代表数据结构为任意...
数据结构 输入表的数据格式,由数据模型定义,在下拉列表中选择输入数据的逻辑表名称,表示该计算资源中提供数据的数据表的结构。当选择数据表时,需保证输入的模型与上游节点的输出数据模型相同。当选择星号(*)时,代表数据结构为任意...
输入数据结构 输入表的数据格式,由数据模型定义,在下拉列表中选择输入数据的逻辑表名称,表示该计算资源中提供数据的数据表的结构。当选择数据表时,需保证输入的模型与上游节点的输出数据模型相同。当选择星号(*)时,代表数据结构为...
输入数据结构 输入表的数据格式,由数据模型定义,在下拉列表中选择输入数据的逻辑表名称,表示该计算资源中提供数据的数据表的结构。当选择数据表时,需保证输入的模型与上游节点的输出数据模型相同。当选择星号(*)时,代表数据结构为...
Flink Vvr Stream节点是流式节点,运行于Flink云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL和DataHub等类型的数据进行处理。本文介绍如何新建Flink Vvr Stream类型的公共节点。背景信息 ...
如同大多数传统单机关系型数据库,PolarDB-X 1.0 分为网络层、协议层、SQL解析层、优化层和执行层,其中优化层包含逻辑优化和物理优化,执行层包含单机两阶段执行、单机并行执行和多机并行执行,应用了多种传统单机数据库优化和执行技术。...
数据结构 输入表的数据格式,由数据模型定义,在下拉列表中选择输入数据的逻辑表名称,表示该计算资源中提供数据的数据表的结构。当选择数据表时,需保证输入的模型与上游节点的输出数据模型相同。当选择星号(*)时,代表数据结构为任意...
数据结构 输入表的数据格式,由数据模型定义,在下拉列表中选择输入数据的逻辑表名称,表示该计算资源中提供数据的数据表的结构。当选择数据表时,需保证输入的模型与上游节点的输出数据模型相同。当选择星号(*)时,代表数据结构为任意...
Flink Vvr Stream节点是流式节点,运行于Flink云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL和DataHub等类型的数据进行处理。本文介绍如何新建Flink Vvr Stream类型的公共节点。背景信息 ...
Spark Stream节点是流式节点,运行于Spark云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQL和DataHub等类型的数据进行处理。本文介绍如何新建Spark Stream类型的公共...
usr/bin"export PWD="/root"export SHLVL="2"export TERM="vt220"export_="/usr/local/share/aliyun-assist/2.2.3.221/./work/script/t-xx.sh"所以,当您使用云助手执行命令时,如果待执行的命令中需要使用云助手中没有的环境变量,或者所...
Spark Stream节点是流式节点,运行于Spark云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQL和DataHub等类型的数据进行处理。本文介绍如何新建Spark Stream类型的公共...
Flink Vvp Stream节点是流式节点,运行于Flink云计算资源之上,支持对ApsaraDB for RDS、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL和DataHub Service等类型的数据进行处理。本文介绍如何新建Flink Vvp Stream类型的公共...
Flink Vvp Stream节点是流式节点,运行于Flink云计算资源之上,支持对ApsaraDB for RDS、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL和DataHub Service等类型的数据进行处理。本文介绍如何新建Flink Vvp Stream类型的公共...
Flink DataStream节点是流式节点,运行于Flink云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQL和DataHub等类型的数据进行处理。本文介绍如何新建Flink DataStream...
您可以在DMS中通过SQL窗口直接输入SQL语法或通过数据变更工单提交数据变更。同时,您可以自定义安全规则,实现对不同环境库定义不同的数据变更执行配置。本文将通过以下4个例子向您介绍典型场景下的安全规则设定与对应提交数据变更的方式。...
Flink DataStream节点是流式节点,运行于Flink云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQL和DataHub等类型的数据进行处理。本文介绍如何新建Flink DataStream...
如果您的数据库小版本过期或者不在维护列表内,当执行 实例版本升级、数据迁移、变更实例配置、按备份点将备份数据恢复至新建实例、按时间点将备份数据恢复至新建实例 或 恢复云数据库MongoDB单个或多个数据库 等操作时,为保证提供更出色...
参数管理 当数据开发的业务流程中,下游节点的任务需要使用某些常量参数、变量参数时,您可以使用参数节点,将下游节点需要使用的参数均添加至参数节点中,需使用参数的下游节点直接挂在参数节点之下,即可获取使用所需参数,便于整个业务...
源库为PostgreSQL的同步方案概览 根据同步方案,查看同步任务的注意事项及限制:说明 DTS默认同步到目标数据库中时会取消外键约束,因此源数据库的级联、删除等操作不会同步到如下目标数据库:RDS PostgreSQL 云原生数据仓库AnalyticDB ...
源库为 PolarDB-X 1.0 的同步方案概览 根据如下同步方案,查看同步任务的注意事项及限制:说明 DTS默认同步到目标数据库中时会取消外键约束,因此源数据库的级联、删除等操作不会同步到如下目标数据库:PolarDB-X 1.0 MySQL(RDS MySQL、自...
Blink节点是流式节点,运行于Blink云计算资源之上,支持对DataHub Service、AnalyticDB MySQL、Table Store、MaxCompute、AnalyticDB PostgreSQL和RDS MYSQL类型的数据源进行处理。本文介绍如何新建Blink类型的公共节点。操作步骤 方式一:...
输入数据结构 输入表的数据格式,由数据模型定义,在下拉列表中选择输入数据的逻辑表名称,表示该计算资源中提供数据的数据表的结构。当选择数据表时,需保证输入的模型与上游节点的输出数据模型相同。当选择星号(*)时,代表数据结构为...
输入数据结构 输入表的数据格式,由数据模型定义,在下拉列表中选择输入数据的逻辑表名称,表示该计算资源中提供数据的数据表的结构。当选择数据表时,需保证输入的模型与上游节点的输出数据模型相同。当选择星号(*)时,代表数据结构为...
例如:智能圈选的人群数据中没有包含人群的手机号码数据时,您可以通过人群管理页面补充手机号码数据。后续发送运营内容,希望对每个目标用户发送的短信内容进行部分内容变量替换时,您可以通过人群管理页面,补充对应人群的变量模板数据。...