(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出和节点变量。这里以解析为例介绍。单击编辑页面的 图标,在节点编辑页面的 ...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出和节点变量。这里以解析为例介绍。单击编辑页面的 图标,在节点编辑页面的 ...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出参数和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面的 ...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出参数和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面的 ...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出参数和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出参数和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出参数和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出参数和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出参数和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出参数和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出参数和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出参数和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出参数和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出参数和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面的 图标,...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面的 图标,...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面的 图标,...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面的 图标,...
当您使用Logtail采集容器日志时,可以通过Label和环境变量对待采集的容器进行过滤。Label指运行 docker inspect 命令时显示的容器元数据中的标签信息,环境变量是在容器启动时设置的运行时环境参数。本文介绍如何获取容器的Label和环境变量...
单击 新建变量,创建两个全局变量,分别重命名为 y 和 z,设置初始值为 123 和 234。设置蓝图交互。单击左上角的 图标,进入蓝图编辑器。拖拽图层节点和全局变量节点到蓝图主画布中。单击 逻辑节点,添加两个串行数据处理节点。连接节点。...
交互事件 为当前统计图表设置变量并保存到仪表盘A,如果其他统计图表的交互事件为跳转到仪表盘A且设置的变量名和当前统计图表的变量名相同,则单击其他统计图表中的值时会跳转到仪表盘A,且变量替换为触发交互事件的值,并以替换变量后的...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出参数和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出参数和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出参数和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出参数和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面...
单击 输入变量 页签,查看输入变量,输入变量包括上游变量、运行状态和系统变量。如果您想在下游节点中使用脚本输出变量,单击 输出变量 页签,单击 增加变量,添加输出变量。变量 文本框中,填写脚本输出变量的名称。关于脚本输出变量,请...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面的 图标,...
(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点的输入、输出和节点变量,或通过单击编辑页面的 图标,自动解析公共节点的输入、输出和节点变量。这里以解析为例介绍,详细参数如下表所示。单击编辑页面的 图标,...
使用 内置和自定义变量,均由变量名进行引用。引用内置变量:host。引用自定义变量:seckey。为强调变量的内置属性,可通过$进行引用。引用内置变量:$host。自定义变量的名称不能与内置变量同名。内置变量,请参见 AScript内置变量表。...
SQL赋值节点可以将SELECT语句读取的数据赋值给该节点的输出变量,输出变量可以在下一节点中作为输入变量被使用。本文介绍配置SQL赋值节点的方法。背景信息 SQL赋值节点赋予任务流获取表中数据作为下游节点的变量的能力。变量在任务节点中的...
说明 工作组若有创建数据标准、数据源和全局变量,不区分创建方式,默认拉取这3个模块的全量数据导入导出。关联项说明 关联项 说明 逻辑表 对应数据建模中创建的逻辑表。说明 需在数据建模中创建逻辑表,该逻辑表需被生产节点引用。指标 ...
说明 工作组若有创建数据标准、数据源和全局变量,不区分创建方式,默认拉取这3个模块的全量数据导入导出。关联项说明 关联项 说明 单节点 对应已经上线的单节点任务。逻辑表 对应数据建模中创建的逻辑表。说明 需在数据建模中创建逻辑表,...
其他参数 参数名 参数描述 是否必填 参数默认值 参数范围 主成分数量 保留的主成分数量,即PCA降维后的特征维度数量,需要同时小于等于样本数、特征变量个数和目标变量个数。是 2[1,99999999]奇异值求解器 指定奇异值分解SVD的方法。自动:...
条件必选)如果代码中存在输入、输出或者节点变量,则需要手动添加节点的输入、输出和节点变量,具体参数配置参见下表。如果节点文件和脚本中有要求输入,则打开 节点输入 后面的 开关,单击 添加节点输入,添加节点输入,自定义填写输入...
(条件必选)如果代码中存在输入、输出或者节点变量,则需要手动添加节点的输入、输出和节点变量,具体参数配置参见下表。如果节点文件和脚本中有要求输入,则打开 节点输入 后面的 开关,单击 添加节点输入,添加节点输入,自定义填写输入...
本文介绍云效 AppStack 的核心概念,包括应用、研发流程、应用编排、环境级别、环境、变量组、资源。应用 应用是一个可独立交付、对外提供服务的单元,在研发态,通常对应一个功能模块,关联一个代码库;在运行态,通常对应着一个或多个...
Flink Vvr Stream节点是流式节点,运行于Flink云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL和DataHub等类型的数据进行处理。本文介绍如何新建Flink Vvr Stream类型的公共节点。背景信息 ...
说明 一个已绑定的游标变量被初始化为表示其名称的字符串值,因此入口的名字和游标变量名相同,除非程序员在打开游标之前通过赋值覆盖了这个名字。但是一个未绑定的游标变量最初默认为空值,因此它会收到一个自动生成的唯一名字,除非被...
Flink Vvr Stream节点是流式节点,运行于Flink云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL和DataHub等类型的数据进行处理。本文介绍如何新建Flink Vvr Stream类型的公共节点。背景信息 ...
Spark Stream节点是流式节点,运行于Spark云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQL和DataHub等类型的数据进行处理。本文介绍如何新建Spark Stream类型的公共...
Flink Vvp Stream节点是流式节点,运行于Flink云计算资源之上,支持对ApsaraDB for RDS、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL和DataHub Service等类型的数据进行处理。本文介绍如何新建Flink Vvp Stream类型的公共...
Spark Stream节点是流式节点,运行于Spark云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQL和DataHub等类型的数据进行处理。本文介绍如何新建Spark Stream类型的公共...
Flink Vvp Stream节点是流式节点,运行于Flink云计算资源之上,支持对ApsaraDB for RDS、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL和DataHub Service等类型的数据进行处理。本文介绍如何新建Flink Vvp Stream类型的公共...
Flink DataStream节点是流式节点,运行于Flink云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQL和DataHub等类型的数据进行处理。本文介绍如何新建Flink DataStream...
OUT端口-输出参数 参数名 参数描述 输出数据类型 输出 输出包含聚合索引和聚合变量。聚合索引:与输入数据类型一致。待聚合变量:浮点数。其他参数 参数名 参数描述 是否必填 参数默认值 参数范围 聚合方法 选择数据聚合的方法。是 均值 ...
Flink DataStream节点是流式节点,运行于Flink云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQL和DataHub等类型的数据进行处理。本文介绍如何新建Flink DataStream...
循环SQL节点可循环生成SQL语句,再将其分批提交给DMS管理的任意关系型数据库执行,同时,还可以搭配变量,控制SQL循环次数,达到简化SQL循环逻辑、平衡SQL语句对源库产生压力的目的。本文介绍配置循环SQL节点的操作步骤。背景信息 任务编排...