稳定性测试

在 通用稳定性测试&Android/通用稳定性测试&iOS 页面的 测试数据准备 中输入 任务名称、选择 待测应用、输入 运行时间、设置 自定义性能数据采集。任务名称:标记当前测试任务,方便后续搜索测试任务。待测应用:可选本地上传或选择已上传...

新建AnalyticDB PostgreSQL类型的公共节点

单击编辑页面的 图标,在节点编辑页面运行配置 页签,会显示已自动解析出的输入输出和节点变量。打开 节点输入 后面的 开关,查看节点输入。打开 节点输出 后面的 开关,查看节点输出。填写节点变量值。参数 说明 节点输入 输入标识 ...

新建AnalyticDB PostgreSQL类型的公共节点

单击编辑页面的 图标,在节点编辑页面运行配置 页签,会显示已自动解析出的输入输出和节点变量。打开 节点输入 后面的 开关,查看节点输入。打开 节点输出 后面的 开关,查看节点输出。填写节点变量值。参数 说明 节点输入 输入标识 ...

新建开发环境场景并运行

单击页面右侧 运行配置 页签,选择公共节点的开发和生产计算引擎,关于参数配置的更多信息,请参见下表。参数 说明 计算引擎 开发 开发环境场景使用资源,用于在开发环境中运行。生产 生产场景使用资源,用于在生产环境中运行。资源组 资源...

新建MaxCompute MR类型的公共节点

单击页面右侧 运行配置 页签,选择需要的开发计算资源。(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点输入、输出参数和节点变量。打开 节点输入 后面的 开关,单击 添加节点输入,添加节点输入,自定义填写输入...

新建MaxCompute MR类型的公共节点

单击页面右侧 运行配置 页签,选择需要的开发计算资源。(条件必选)如果代码中存在输入、输出表或者节点变量,则需要手动添加节点输入、输出参数和节点变量。打开 节点输入 后面的 开关,单击 添加节点输入,添加节点输入,自定义填写输入...

新建Flink SQL类型的公共节点

单击编辑页面的 图标,在节点编辑页面运行配置 页签,会显示已自动解析出的输入输出和节点变量。打开 节点输入 后面的 开关,查看节点输入。打开 节点输出 后面的 开关,查看节点输出。填写节点变量值。配置Flink运行时参数。在节点编辑...

新建Flink SQL类型的公共节点

Flink SQL节点是流式节点,运行于Flink云计算资源之上,支持对ApsaraDB for RDS、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL和DataHub Service等类型的数据进行处理。本文介绍如何新建Flink SQL类型的公共节点。背景信息...

新建Flink Vvp SQL类型的公共节点

Flink Vvp SQL节点是流式节点,运行于Flink云计算资源之上,支持对ApsaraDB for RDS、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQL和DataHub Service等类型的数据进行处理。本文介绍如何新建Flink ...

计算任务运行配置

您可根据业务场景为离线计算任务配置任务级的运行超时时间和任务运行失败时的重跑策略,杜绝因计算任务长时间资源占用造成资源浪费的同时提高计算任务运行的可靠性。本文将为您介绍如何配置离线计算任务的运行配置。操作步骤 请参见 离线...

计算任务运行配置

您可根据业务场景为离线计算任务配置任务级的运行超时时间和任务运行失败时的重跑策略,杜绝因计算任务长时间资源占用造成资源浪费的同时提高计算任务运行的可靠性。本文将为您介绍如何配置离线计算任务的运行配置。操作步骤 请参见 离线...

离线管道任务运行配置

您可根据业务场景为离线管道任务配置任务级的运行超时时间和任务运行失败时的重跑策略,离线管道任务长时间资源占用造成资源浪费的同时提高离线管道任务运行的可靠性。本文将为您介绍如何配置离线管道任务的运行配置。操作步骤 请参见 离线...

离线管道任务运行配置

您可根据业务场景为离线管道任务配置任务级的运行超时时间和任务运行失败时的重跑策略,离线管道任务长时间资源占用造成资源浪费的同时提高离线管道任务运行的可靠性。本文将为您介绍如何配置离线管道任务的运行配置。操作步骤 请参见 离线...

03创建开发环境场景并运行

单击页面右侧 运行配置 页签,选择各个公共节点的 开发计算引擎 为“data_odps_dev”。添加数据同步节点进行配置。在左侧节点列表中,选择 系统节点>同步节点,将同步节点拖到画布上,输入节点名称为“从MaxCompute同步到RDS MySQL”。单击...

PHP应用部署到ECS

点击【确认】,返回流水线编辑页面运行流水线 点击【运行】,开始运行流水线,至此就完成了PHP应用部署到ECS流水线的创建。当流水线运行完成后,一个PHP应用就部署到了ECS上。查看部署结果 点击打开发布单,可以看到部署详情。通过浏览器...

任务调试流程

任务代码开发完成后,您可根据需要,通过运行、带参运行、快捷运行等功能调试完整代码或代码片段的正确性,并在调试完成后查看运行结果。本文为您介绍任务调试的相关内容。前提条件 已完成任务开发,详情请参见 数据开发概述。背景信息 您...

新建Spark SQL类型公共节点并运行

单击页面右侧 运行配置 页签,选择需要的开发计算引擎。(条件必选)如果代码中存在输入、输出或者节点变量,则需要手动添加节点的输入、输出和节点变量,具体参数配置参见下表。如果节点文件和脚本中有要求输入,则打开 节点输入 后面的 ...

CDH Hive数据抽样采集器

管理采集器 您可以在 已采集列表 页面,查看相应采集器的运行 状态、执行计划、上次运行时间、上次消耗时间 及 平均运行耗时 等信息,同时,您还可以对目标采集器执行如下操作:详情:查看目标采集器所配置的详细信息。编辑:修改目标采集...

新建MaxCompute SQL类型的公共节点

单击编辑页面的 图标,在节点编辑页面运行配置 页签,会显示已自动解析出的输入输出和节点变量。打开 节点输入 后面的 开关,查看节点输入。打开 节点输出 后面的 开关,查看节点输出。填写节点变量值。参数 说明 节点输入 输入标识 ...

新建MaxCompute SQL类型的公共节点

单击编辑页面的 图标,在节点编辑页面运行配置 页签,会显示已自动解析出的输入输出和节点变量。打开 节点输入 后面的 开关,查看节点输入。打开 节点输出 后面的 开关,查看节点输出。填写节点变量值。参数 说明 节点输入 输入标识 ...

新建Spark Stream类型的公共节点

Spark Stream节点是流式节点,运行于Spark云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQL和DataHub等类型的数据进行处理。本文介绍如何新建Spark Stream类型的公共...

新建Spark Batch类型的公共节点

单击页面右侧 运行配置 页签,选择需要的开发计算引擎。条件必选)如果代码中存在输入、输出或者节点变量,则需要手动添加节点的输入、输出和节点变量,具体参数配置参见下表。如果节点文件和脚本中有要求输入,则打开 节点输入 后面的 ...

新建Spark Stream类型的公共节点

Spark Stream节点是流式节点,运行于Spark云计算资源之上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQL和DataHub等类型的数据进行处理。本文介绍如何新建Spark Stream类型的公共...

新建公共节点

页面右侧 运行配置 页面,显示已自动解析出的输入输出和运行参数。在页面右侧,单击 运行配置,选择开发计算资源。单击 图标,进行运行,完成后可以查看运行日志。当运行日志显示“Current task status:SUCCESS”,表示公共节点运行成功...

新建Spark Batch类型的公共节点

Spark Batch节点是离线节点,运行于Spark类型的云计算资源之上,可通过输入SQL语句处理Spark类型的数据源。本文介绍如何新建Spark Batch类型的公共节点。前提条件 已创建Spark On Yarn或者Spark Cluster类型的云计算资源,具体信息,请参见...

新建Elastic Job类型的公共节点

单击页面右侧 运行配置 页签,选择需要的开发计算资源。手动添加节点的输入、输出参数和节点变量,具体参数配置参见下表。配置 节点输入:如果节点文件和脚本中有要求输入变量,则单击 添加节点输入,配置输入变量。配置 节点输出:如果...

查看物理表质量检查任务

在 质量检查任务 页面,根据计划code、执行类型、运行状态、调度时间来过滤所需质量检查任务,单击 查询。说明 单击 重置,可关闭设置的过滤条件,恢复到默认状态,默认显示全部质量检查任务。质量检查计划任务运行完成后,在质量检查任务...

工作流编辑

运行方式 说明 立即执行 立即运行一个工作流,可以将 指定运行时间 作为本工作流的业务时间,时间相关的变量将使用该时间进行计算。设置时间调度运行 立即运行一批工作流,将指定调度规则的触发时间作为本工作流的业务时间,时间相关的变量...

查看物理表质量检查任务

在 质量检查任务 页面,根据计划code、执行类型、运行状态、调度时间来过滤所需质量检查任务,单击 查询。说明 单击 重置,可关闭设置的过滤条件,恢复到默认状态,默认显示全部质量检查任务。质量检查计划任务运行完成后,在质量检查任务...

新建Blink类型的公共节点

单击编辑页面的 图标,在节点编辑页面运行配置 页签,会显示已自动解析出的输入输出和节点变量。打开 节点输入 后面的 开关,查看节点输入。打开 节点输出 后面的 开关,查看节点输出。填写节点变量值。在节点编辑页面,单击左上角 图标...

新建Blink类型的公共节点

单击编辑页面的 图标,在节点编辑页面运行配置 页签,会显示已自动解析出的输入输出和节点变量。打开 节点输入 后面的 开关,查看节点输入。打开 节点输出 后面的 开关,查看节点输出。填写节点变量值。在节点编辑页面,单击左上角 图标...

全增量同步任务运维

查看任务运行概况 您可以进入 数据集成>任务运维 页面查看所选时间周期中目标全增量同步任务的运行状态概况。主要内容如下:总运行状态分布 区域展示当前所选时间周期,目标任务的个数及运行结果的状态分布,统计的是任务运行成功及失败...

配置动态内存优化

在容器服务K8s集群或Serverless K8s集群中创建或部署应用时,您可以...方法二:在 应用总览 页面单击 运行状态 右侧的Pod运行状态链接,在 容器组(Pod)区域查看Pod的 状态,如果显示为代表运行中的绿色圆圈,则说明部署成功,配置已生效。

管理工作流实例和节点实例

您可以查看所有工作流实例,以及各工作流实例的运行时间、运行状态等。单击 工作流实例列表 区域的 工作流运行ID,或单击上方的 工作流实例图 页签,可以查看对应的工作流实例图。每个节点实例的颜色对应该节点实例的运行状态,状态详情请...

查看 AP 状态

图7AP运行信息页面包含4状态模块:基本信息(图8)、AP运行历史(图8)、Radio信息(图9)、在线STA(图10)。图8 图9 图10 2.1.3、AP配置管理 在“运行信息”>“基本信息”中点击“进入配置”会进入“AP配置页面”,详见“3.1AP配置”。2....

查看离线任务运行记录

您可以查看离线任务运行记录和相关日志。前提条件 已部署应用,具体操作,请参见 部署应用。操作步骤 登录 数据资源平台控制台。在页面左上角,单击 图标,选择 弹性计算...在 离线任务运行记录 页面,单击 操作 列的 日志,可查看对应日志。

配置环境变量

应用在系统中运行需要配置特定的环境变量,例如Java应用程序在配置...方法二:在 应用总览 页面单击 运行状态 右侧的Pod运行状态链接,在 容器组(Pod)区域查看Pod的 状态,如果显示为代表运行中的绿色圆圈,则说明部署成功,配置已生效。

查看离线任务运行记录

您可以查看离线任务运行记录和相关日志。前提条件 已部署应用,具体操作,请参见 部署应用。操作步骤 登录企业数据智能平台。在页面左上角,单击 图标,选择 弹性计算。...在 离线任务运行记录 页面,单击 操作 列的 日志,可查看对应日志。

DataX同步数据

DataX是异构数据源离线同步的...在 DataX 任务的详情页面,单击页面上方的 查看运行日志。在 运行日志 页面,查看 读写失败总数。运行日志显示的读写失败总数为0时,表示DataX任务在生产环境同步数据成功,即可保障生产环境业务数据正常产出。

DataX同步数据

DataX是异构数据源离线同步的...在 DataX 任务的详情页面,单击页面上方的 查看运行日志。在 运行日志 页面,查看 读写失败总数。运行日志显示的读写失败总数为0时,表示DataX任务在生产环境同步数据成功,即可保障生产环境业务数据正常产出。
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 MongoDB 版 数据传输服务 云监控 函数计算(旧版) 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用