随着Kubernetes集群的广泛应用,企业往往需要...作业分发:离线作业多集群调度,选择适合的集群运行离线作业。全局监控:多集群监控大盘,一个监控大盘查看所有集群的监控指标。相关文档 ACK One概述 开启舰队管理功能 管理关联集群 ArgoCD
Job Transcode Job 转码作业 转码作业,一个转码作业由一路输入及一路输出构成,作业会被加入到管道中,管道中的作业会被调度引擎调度到转码系统进行转码。AnalysisJob Analysis Job 预置模板分析作业 预置模板分析作业由输入文件及分析...
DataWorks迁移助手支持将开源调度引擎的作业迁移至DataWorks,支持作业跨云、跨Region、跨账号迁移,实现DataWorks作业快速克隆部署,同时DataWorks团队联合大数据专家服务团队,上线迁云服务,帮助您快速实现数据与任务的上云。...
SchedInterval 指调度周期,单位:秒 调度周期指运行多个作业之间时间间隔,如设置为 60,表示本次作业开始运行 60 秒后才能开始运行下次作业。默认值:60 60 SchedMaxJobs integer 否 集群调度的最大作业数。若集群排队和运行的作业数总和...
本文为您介绍什么是DataStudio,以及DataStudio支持的Hologres节点功能。简介 DataWorks基于Hologres、MaxCompute等大数据计算引擎,为您...一键表数据同步 您可以使用DataStudio导入MaxCompute数据至Hologres,并可以提交调度周期性作业。
另外,调度频繁也会引起SQL作业费用的增加,调度频繁可能会产生任务的堆积,在后付费的情况下会造成排队现象,如果任务多又出现了排队,那么第二天的账单就会异常。通过如下策略进行SQL作业计算成本控制:避免频繁调度。MaxCompute是批量...
您可以直接将开源Spark命令行工具包替换成DLA Spark命令行工具包,并进行简单的配置即可使用Airflow调度DLA Spark作业。重要 云原生数据湖分析(DLA)产品已退市,云原生数据仓库 AnalyticDB MySQL 版 湖仓版支持DLA已有功能,并提供更多的...
export ENV_ABC=12345 java-jar abc.jar 调度参数 设置作业运行YARN队列、内存、虚拟核数、优先级和执行用户等信息。当未设置这些参数时,作业会直接采用Hadoop集群的默认值。说明 内存设置用于设置启动器Launcher的内存配额。在 作业设置 ...
背景信息 本文为您提供作业编辑的相关操作,具体如下:新建作业 设置作业 在作业中添加注解 运行作业 作业可执行操作 作业提交模式说明 前提条件 已创建项目或已被加入到项目中,详情请参见 项目管理。新建作业 进入数据开发的项目列表页面...
在YARN中,通过作业的YARN队列优先级,决定YARN优先为哪个作业分配资源,即优先调度运行哪个作业。更多YARN介绍,详情请参见 YARN概述。DataWorks中您可通过如下方式配置调度运行节点任务时使用的YARN队列:方式一(YARN队列全局配置):...
如果您的集群中既有Arm虚拟节点,又有非Arm虚拟节点(例如x86虚拟节点),为了确保只兼容Arm架构的工作负载调度到Arm虚拟节点,或多架构镜像优先调度到Arm虚拟节点,您可以基于Kubernetes原生调度配置来实现。前提条件 集群:已创建 ACK ...
如果您的集群中既有Arm虚拟节点,又有非Arm虚拟节点(例如x86虚拟节点),为了确保只兼容Arm架构的工作负载调度到Arm虚拟节点,或多架构镜像优先调度到Arm虚拟节点,您可以基于Kubernetes原生调度配置来实现。前提条件 集群:已创建ACK集群...
E-HPC提供了调度器插件作为平台的外扩组件,在E-HPC现有调度器类型或版本不满足当前业务时,您可以通过该插件构建自定义调度器并接入E-HPC平台的能力。本文为您介绍E-HPC集群调度器插件的概念及组成。什么是调度器插件 E-HPC作为一款PaaS...
Lindorm计算引擎兼容CDH(Cloudera's Distribution Including Apache Hadoop),支持通过大数据开发治理平台DataWorks开发、管理、调度、运维分布式计算作业。作业类型包括交互式SQL查询、SQL作业、JAR作业、Python作业等。本文介绍如何...
停止全面支持时间 2023年9月30日0点 影响 您在停止全面支持时间点前创建的数据开发(旧版)项目不会受到影响,可正常使用EMR数据开发(旧版)模块,包括运行作业和工作流调度,但阿里云不再提供EMR数据开发(旧版)的用户答疑、问题解决和...
停止更新时间 2022年2月21日21点 影响 您在停更时间点前创建的数据开发项目不会受到影响,可正常使用EMR数据开发模块,包括运行作业和工作流调度。如果您后续需要更丰富的数据开发功能,推荐迁移至DataWorks构建工作流,EMR已经跟DataWorks...
MaxCompute Spark作业可通过 Local模式、Cluster模式 执行,此外,您也可在DataWorks中运行MaxCompute Spark离线作业(Cluster模式),以便与其它类型执行节点集成和调度。本文为您介绍如何通过DataWorks实现MaxCompute Spark作业的配置与...
MaxCompute Spark作业可通过 Local模式、Cluster模式 执行,此外,您也可在DataWorks中运行MaxCompute Spark离线作业(Cluster模式),以便与其它类型执行节点集成和调度。本文为您介绍如何通过DataWorks实现MaxCompute Spark作业的配置与...
DataWorks为您提供PyODPS 3节点,您可以在该节点中直接使用Python代码编写MaxCompute作业,并进行作业的周期性调度。本文为您介绍如何通过DataWorks实现Python任务的配置与调度。前提条件 已创建PyODPS 3节点,详情请参见 创建并管理...
DataWorks为您提供PyODPS 3节点,您可以在该节点中直接使用Python代码编写MaxCompute作业,并进行作业的周期性调度。本文为您介绍如何通过DataWorks实现Python任务的配置与调度。前提条件 已创建PyODPS 3节点,详情请参见 创建并管理...
Instance信息部分,您可以单击Status查看当前队列的Status详细信息,包含四种状态:Waiting:说明当前作业正在MaxCompute中处理,并没有提交到分布式调度系统(Fuxi)中运行。Waiting List:n:说明作业已提交至分布式调度系统(Fuxi)排队...
调度器服务器:运行调度器客户端,管理调度节点,处理作业提交。域账号服务器:管理集群内的用户。计算节点:运行高性能计算作业,其配置决定了E-HPC集群的总体性能。安全组是一种虚拟防火墙,具备集群节点状态检测和数据包过滤能力,用于...
打开该开关,您还可以选择配置以下参数:调度队列:指定作业提交的YARN队列。任务执行容器内存(MB):指定作业执行容器的内存。默认值为1024。虚拟核数:指定作业执行容器的虚拟核数(vCores)。默认值为1。优先级:指定作业执行容器的...
获取作业各节点的启停调度信息。获取作业各节点的标准输入输出日志。Spark结果输出建议打印到StdOut,Spark的log4j日志则默认输出到StdErr。Logview的时效性为3~5天。当本地磁盘已满时,StdOut和StdErr会被清理掉。在浏览器中打开日志输出...
打开该开关,您还可以选择配置以下参数:调度队列:指定作业提交的YARN队列。任务执行容器内存(MB):指定作业执行容器的内存。默认值为1024。虚拟核数:指定作业执行容器的虚拟核数(vCores)。默认值为1。优先级:指定作业执行容器的...
常用运维场景示例 查看具体作业运行详情 运维场景 您需要查看某个DataWorks小时调度节点发起的作业运行情况或需要对指定的MaxCompute作业进行审计。操作步骤 登录 MaxCompute管理控制台 的 作业运维 页面。根据实际需要设置 时间范围。单击...
本文介绍弹性资源调度、AI任务调度、异构资源调度和任务队列调度,帮助用户提升集群的资源利用率和作业运行效率。弹性调度 ACK为不同弹性资源提供了混合调度的能力。功能 描述 参考文档 弹性调度 阿里云提供了不同种类的弹性资源,如ECS和...
配置工作流调度 您可以打开工作流调度开关并配置工作流调度参数,调度系统会按照参数定时运行相关工作流,并将作业下发到指定集群上执行。以下介绍配置工作流的基本属性、调度属性和告警设置。完成工作流设计后,单机画布右上角 配置 按钮...
本文介绍如何在数据湖分析控制台创建和执行Spark作业。准备事项 您需要在提交作业之前先...使用DMS进行Spark作业编排和任务周期调度,请参考文档 DMS任务编排调度Spark任务训练机器学习模型。DLA Spark作业配置,请参考文档 作业配置指南。
调度和执行场景 一个作业可生成一个或多个实例,无论是正常被调度还是您触发异常实例重试的情况,同时只有一个实例处于运行中,不存在多个实例并发执行的情况。主要的调度与执行场景如下表所示。场景 说明 场景一:从当前时间开始执行时序...
调度和执行场景 一个作业可生成一个或多个实例,无论是正常被调度还是您触发异常实例重试的情况,同时只有一个实例处于运行中,不存在多个实例并发执行的情况。主要的调度与执行场景如下表所示。场景 说明 场景一:从当前时间开始执行下探...
DataWorks的StarRocks节点可进行StarRocks任务的开发和周期性调度,以及与其他作业的集成操作。本文为您介绍使用StarRocks节点进行任务开发的主要流程。背景信息 StarRocks是新一代极速全场景MPP(Massively Parallel Processing)数据库,...
DataWorks的ClickHouse SQL节点可进行ClickHouse SQL任务的开发和周期性调度,以及与其他作业的集成操作。本文为您介绍使用ClickHouse SQL节点进行任务开发的主要流程。前提条件 已创建业务流程。数据开发(DataStudio)基于业务流程执行...
DataWorks的Oracle节点可进行Oracle任务的开发和周期性调度,以及与其他作业的集成操作。本文为您介绍使用Oracle节点进行任务开发的主要流程。背景信息 Oracle是用于存储和处理数据的关系型数据库管理系统(RDBMS),为您提供可靠、高效且...
DataWorks的SQL Server节点可进行SQL Server任务的开发和周期性调度,以及与其他作业的集成操作。本文为您介绍使用SQL Server节点进行任务开发的主要流程。背景信息 SQL Server是用于存储和处理数据的关系型数据库管理系统(RDBMS),为您...
DataWorks的PostgreSQL节点可进行PostgreSQL任务的开发和周期性调度,以及与其他作业的集成操作。本文为您介绍使用PostgreSQL节点进行任务开发的主要流程。背景信息 PostgreSQL是一款功能强大、灵活的开源关系型数据库管理系统(RDBMS),...
云原生AI套件以Kubernetes容器服务为底座,向下封装对各类异构资源的统一管理,向上提供标准Kubernetes集群环境和API,以运行各核心组件,实现资源运维管理、AI任务调度和弹性伸缩、数据访问加速、工作流编排、大数据服务集成、AI作业生命...
DataWorks的AnalyticDB for MySQL节点可进行AnalyticDB for MySQL任务的开发和周期性调度,以及与其他作业的集成操作。本文为您介绍使用AnalyticDB for MySQL节点进行任务开发的主要流程。前提条件 已购买相应版本服务。购买DataWorks标准...
基本概念 管道有启用、禁用两种状态,管道被暂停时,媒体处理服务不再调度此管道中的作业执行,直到管道被重新启用为止,已在执行中的作业不受影响。管道中的任务可以有多种优先级。通过API提交的任务可以自定义优先级,最高为10,最低为1...
如果提交作业时设置的Quota Tag和某个Quota组属性中的Quota Tag相等,作业就会被优先调度到这个Quota组中。否则,会被调度到所属项目空间指定的Quota组中。执行如下语句进行设置。set odps.task.quota.preference.tag=payasyougo 说明 该...