配置任务常见错误码及排查方法

原因:由于系统无法连接任务运行的服务器节点,导致无法检测服务器节点到源或目标库的网络是否通畅。解决方法:请联系技术支持解决。DTS.Msg.StopJobFailed.ServerUnAvailable 配置任务过程中。原因:逻辑上需要暂停任务时,系统无法连接...

常见报错

可能原因:由于系统无法连接任务运行的服务器节点,导致无法检测服务器节点到源或目标库的网络是否通畅。解决方法:请 通过钉钉(钉钉通讯客户端下载地址)进入到DTS客户交流钉钉群(群号:68325004196或68640008972),进行咨询。DTS.Msg....

并行计划

并行连接 正如在非并行计划中那样,驱动表可能被使用嵌套循环、哈希连接或者归并连接到一个或者多个其他表。连接的内侧可以是任何类型的被规划器支持的非并行计划,假设它能够安全地在并行工作者中运行。根据连接类型,内侧还可以是一种...

常见问题

实际的任务并行度参照如下的计算公式 concurrent_num=Min(Min(partition_num,Min(desired_concurrent_num,alive_be_num)),Config.max_routine_load_task_concurrent_num)。max_batch_interval properties 10s Routine Load任务调度周期。...

迁移方案

通常,建议您采用迁移新任务和原有任务并行双跑的方式,在新运行一段时间,满足数据对比条件后,验证新任务和原有任务的数据产出是否一致,达到预期的数据质量。理想情况下,迁移的新任务数据产出和原任务完全一致,就无需进行额外的差异...

导入结构和数据

最大支持 5 个导入任务并行运行,后续任务在队列中等待运行。导入任务涉及的文件默认保留 14 天。在 ODC V4.1.0 之后的版本,针对 OceanBase 数据源,配置 sys 租户账号可以提升导入速度。新建导入任务 示例:将本地磁盘中表 employee 和 ...

Java任务

MapReduce:常规MapReduce模型任务,支持超大数量的子任务并行处理,仅可查询子任务运行汇总信息,建议子任务在100万以下时选择。分片运行:包括静态分片和动态分批,用于处理大数据业务需求。单机 和 广播 需要实现JavaProcessor;可视化...

导出结构和数据

最大支持 5 个导出任务并行运行,后续任务在队列中等待运行。导出任务涉及的文件默认保留 14 天。在 ODC V4.1.0 之后版本,针对 OceanBase 数据源,配置 sys 租户账号可以提升导出速度。同时导出除表、视图之外的其它对象时不再要求必须...

任务管理

MapReduce:属于常规MapReduce模型任务,能支持超大数量的子任务并行处理,仅可查询子任务运行汇总信息,建议子任务100W以下时选择。分片运行:类似elastic-job模型,配置分片参数,可以将分片平均分给多个客户端执行。支持多语言版本。...

任务管理

MapReduce:属于常规MapReduce模型任务,能支持超大数量的子任务并行处理,仅可查询子任务运行汇总信息,建议子任务100W以下时选择。分片运行:类似elastic-job模型,配置分片参数,可以将分片平均分给多个客户端执行。支持多语言版本。...

并发数和构建时长

计费规则 流水线是由多个任务组成,而一个任务则是由多个步骤组成 如下图所示,该流水线包含两个任务:Java 构建上传 主机部署 而”Java 构建上传”任务包含两个步骤:Java 构建 构建物上传 Flow 根据 任务 的运行状态来统计企业并发数和...

任务管理

MapReduce:属于常规MapReduce模型任务,能支持超大数量的子任务并行处理,仅可查询子任务运行汇总信息,建议子任务100W以下时选择。分片运行:类似elastic-job模型,配置分片参数,可以将分片平均分给多个客户端执行。支持多语言版本。...

Java任务

MapReduce:常规MapReduce模型任务,支持超大数量的子任务并行处理,仅可查询子任务运行汇总信息,建议子任务在100万以下时选择。分片运行:包括静态分片和动态分批,用于处理大数据业务需求。单机 和 广播 需要实现JavaProcessor;可视化...

Java任务

MapReduce:常规MapReduce模型任务,支持超大数量的子任务并行处理,仅可查询子任务运行汇总信息,建议子任务在100万以下时选择。分片运行:包括静态分片和动态分批,用于处理大数据业务需求。单机 和 广播 需要实现JavaProcessor;可视化...

识别规则及识别方式

调度任务并行度 用于控制同时扫描的资产对象数量,默认为16,支持配置1~100的正整数。说明 增大并行度可加快扫描进度,但会占用更多的集群计算资源,请您根据业务需求进行合理配置。调度黑名单 默认关闭,开启后,可以设置调度黑名单,在...

流水线任务 jobs

如:jobs:my_job:name:我的任务 runsOn:public/cn-beijing stages.<stage_id>.jobs.<job_id>.needs非必填,默认一个阶段内的所有任务并行执行。若任务间有依赖关系,可通过 needs 描述阶段内的任务依赖关系。注意:needs 支持跨阶段的任务...

Hive作业调优

设置true时,表示允许任务并行运行。hive.exec.parallel.thread.number 默认值为8。表示允许同时运行线程的最大值。Fetch task 您可以通过设置以下参数,在执行查询等语句时,不执行MapReduce程序,以减少等待时间。参数 描述 hive.fetch....

自定义流水线阶段

自定义阶段和 构建应用 阶段也可添加并行任务,自定义并行任务。在流水线中,选择需要自定义阶段的位置,单击,打开 阶段配置 对话框。在 阶段配置 对话框中,配置相关参数。参数名称 子参数名称 参数说明 阶段名称-构建阶段标题名称。超时...

配置订阅任务(新控制台)

源库、目标库无法连接后的重试时间 在订阅任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为720分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的时间内重新连接上源库,...

任务运行诊断

独享调度资源组最大支持的任务并行数,与您所购买的资源组规格有关。独享调度资源组各规格支持执行的任务数,详情请参见 独享调度资源组。检查任务执行情况 当满足以上运行条件时,DataWorks会将任务下发至对应的执行资源或服务上执行。...

创建DMS逻辑库的数据订阅任务

源库、目标库无法连接后的重试时间 在订阅任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为720分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的时间内重新连接上源库,...

创建RDS MySQL数据订阅任务

源库、目标库无法连接后的重试时间 在订阅任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为720分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的时间内重新连接上源库,...

创建PolarDB MySQL版数据订阅任务

源库、目标库无法连接后的重试时间 在订阅任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为720分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的时间内重新连接上源库,...

创建PolarDB PostgreSQL版数据订阅任务

源库、目标库无法连接后的重试时间 在订阅任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为720分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的时间内重新连接上源库,...

快速开始

records_threshold_for_mpp 若查询语句中存在扫描记录超过该阈值的表,优化器会考虑将单机并行弹性扩展为多机并行,将并行任务调度到多个节点上同时完成计算。默认值为records_threshold_for_parallelism的N倍,N值为当前集群地址内的节点...

创建PolarDB-X 2.0数据订阅任务

源库、目标库无法连接后的重试时间 在订阅任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为720分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的时间内重新连接上源库,...

创建PolarDB-X 1.0数据订阅任务

源库、目标库无法连接后的重试时间 在订阅任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为720分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的时间内重新连接上源库,...

使用DTS创建数据订阅

源库、目标库无法连接后的重试时间 在订阅任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为720分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的时间内重新连接上源库,...

创建RDS PostgreSQL数据订阅任务

源库、目标库无法连接后的重试时间 在订阅任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为720分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的时间内重新连接上源库,...

推荐的性能设计模式

对于某些应用程序,您可以通过在不同的线程或实例中同时启动多个请求来实现并行连接。扩展策略取决于您的应用程序和您访问的对象的结构。当您要调整并发的请求数时,性能测量非常重要。建议从单个请求开始,测量当前的网络带宽以及其他资源...

创建Oracle数据订阅任务

源库、目标库无法连接后的重试时间 在订阅任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为720分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的时间内重新连接上源库,...

湖仓版作业调度

云原生数据仓库AnalyticDB MySQL版 湖仓版(3.0)的作业调度提供离线SQL应用、Spark应用的复杂任务流功能,具备灵活的ETL数据处理、数据开发等能力。使用流程 前提条件 如果通过阿里云账号(主账号)登录,使用作业调度功能需要满足以下两...

2019年

并行任务任务列表不能重试子任务。无 1.0.6-compatible,2019-07-02 变更类型 功能描述 相关文档 优化 兼容 schedulerx1.0(DTS)接口的兼容版本。不支持同时依赖 schedulerx-client 和 schedulerx-worker 两个包,只能依赖 schedulerx-...

从自建Redis迁移至阿里云Redis

源库、目标库无法连接后的重试时间 在迁移任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为120分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的重试时间内重新连接上源库...

GetJobInfo-获取指定Jobid任务详情

获取指定Jobid任务详情,通常用来更新任务。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 调试 授权信息 当前API暂无授权信息透出。请求参数 名称 ...

从自建Redis迁移至Tair实例

源库、目标库无法连接后的重试时间 在迁移任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为120分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的重试时间内重新连接上源库...

计费说明

最大并行任务数弹性伸缩,运行时长不限。制品仓库 容量不限 容量不限 专属功能 无 效能洞察、代码安全、研发流程、变更/变更集等 说明 基础与专属功能列表参见 基础/高级版功能说明。对于专属功能,成员状态是“使用中”的用户(主账号用户...

使用DTS迁移Redis

附录:高级设置说明 配置 说明 源库、目标库无法连接后的重试时间 在迁移任务连接失败时,DTS持续地进行重试,默认重试时间为720分钟,取值范围为10~1440分钟。若DTS在重试时间内恢复连接,迁移任务将自动恢复。否则,迁移任务将失败。建议...

ListJobs-获取任务列表

获取任务列表。接口说明 在调用该接口前,需要在POM文件添加以下依赖:<dependency><groupId>com.aliyun</groupId> <artifactId>aliyun-java-sdk-schedulerx2</artifactId> <version>1.0.5</version> </dependency>调试 您可以在OpenAPI ...

应用场景

云工作流(CloudFlow)用于协调分布式应用和微服务以构建复杂多步骤的、异步调用任务以及长时间运行的业务流程。事务型业务流程编排 复杂的业务场景如电商网站、酒店和机票预定等应用通常要访问多个远程服务,并且对操作事务性语义(即所有...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
物联网无线连接服务 批量计算 云工作流 威胁情报服务 VPN网关 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用