提交作业

作业是E-HPC集群进行高性能计算的基本工作单元,包括Shell脚本、可执行文件等。本文介绍如何使用E-HPC客户端提交作业。准备工作 提交作业前,您需要准备好作业文件,并上传到E-HPC集群中。E-HPC客户端支持以下两种方式上传作业文件:通过...

ALL_JOBS

ALL_JOBS 视图提供位于数据库中的所有作业的相关信息。名称 类型 说明 job INTEGER 作业的标识符(作业 ID)。log_user TEXT 提交了作业的用户的名称。priv_user TEXT 与 log_user 相同。仅为了实现兼容性而提供。schema_user TEXT 用于...

TOP INSTANCE

返回当前项目下所有正在执行的作业,默认最大返回50条。limit number:可选。返回当前项目下指定数量的正在执行的作业。使用示例-返回当前项目下前5条正在执行的实例信息。top instance-limit 5;返回结果如下。QueueingInstances:0 total....

DLA Spark快速入门

熟悉Spark的开发者都了解SparkPi,...在 作业编辑 页面,单击 创建作业模板,填写以下作业信息:新创建的作业中包含了SparkPi作业的默认配置,在 作业编辑 页面,单击 执行 即可。说明 关于作业提交的详细说明,请参见 创建和执行Spark作业

引擎运维

在DataWorks实例任务中,E-MapReduce计算引擎任务会被分为若干作业有序执行。您可以使用DataWorks的引擎运维功能,查看各个E-MapReduce作业的详细信息,及时查找并清理运行有误的作业,避免该类作业阻塞下游任务,影响实例任务的正常运行。...

创建和执行Spark作业

本文介绍如何在数据湖分析控制台创建和执行Spark作业。准备事项 您需要在提交作业之前先创建虚拟集群。说明 创建虚拟集群时注意选择引擎类型为 Spark。如果您是子账号登录,需要配置子账号提交作业的权限,具体请参考 细粒度配置RAM子账号...

作业运维(新版)

MaxCompute作业运维功能支持查看历史作业和正在运行的作业,方便您了解作业运行详情及分析作业运行时的资源负载情况,帮助您对作业进行运维管理。功能介绍 MaxCompute的作业运维功能支持查看并运维您当前项目下 历史作业和正在运行的作业。...

企业级状态后端存储介绍

说明 Nexmark 属于第三方搭建的网站,访问时可能会存在无法打开或访问延迟的问题。结果显示GeminiStateBackend对作业整体效能(单核吞吐能力)的优化效果十分显著,具体数据如下表所示。CaseName Gemini TPS/Core RocksDB TPS/Core Gemini ...

通过控制台提交作业

E-HPC管理控制台提供了作业相关的提交作业、停止作业、查看作业状态等功能,本文介绍如何使用E-HPC管理控制台提交作业。前提条件 集群和集群节点状态都为 运行中。已创建用户,具体操作,请参见 管理用户。已准备好作业文件。E-HPC支持多种...

Quota调度策略说明

MaxCompute的包年包月计算资源有限,在实际数据开发过程中,系统可以并发运行多个作业,因此涉及到计算资源的分配。MaxCompute中每个包年包月二级Quota的调度策略分为FIFO(先进先出)和FAIR(公平调度)。您可以通过设置二级Quota的调度...

Serverless Spark概述

开通DLA服务后,您只需简单的配置,就可以提交Spark作业,无需关心Spark集群部署。重要 云原生数据湖分析(DLA)产品已退市,云原生数据仓库 AnalyticDB MySQL 版 湖仓版支持DLA已有功能,并提供更多的功能和更好的性能。AnalyticDB for ...

监控作业

提交作业到E-HPC集群后,您可以在控制台查看作业监控数据,包括运行、提交、排队和完成作业数,便于您了解集群内作业的运行情况,及时调整集群规模和作业任务,提升集群工作效率。前提条件 支持作业监控的集群需满足以下条件:调度器为PBS...

2022-09-19版本

作业状态集管理 SQL作业启动 JAR作业启动 Python作业启动 作业停止 定时调优 定时调优功能针对业务上有明显波峰波谷的Flink作业,对于这类作业我们支持用户在平台设置好自定义的定时策略,在用户需要的时间将作业自动调整到用户预先设定好...

管理作业版本

背景信息 本文从以下方面为您介绍如何管理作业版本:对比作业版本 回滚作业版本 锁定作业版本 删除作业版本 对比作业版本 仅支持SQL代码和作业配置内容的对比,有差异的内容就会被标记出来。登录 实时计算控制台。在 Flink全托管 页签,...

3ds Max DAG作业最佳实践

采用固定集群提交作业 taskDesc.ClusterId=clusterId else:#采用auto集群提交作业 taskDesc.AutoCluster=getAutoClusterDesc(InstanceCount)return taskDesc def getDagJobDesc(inputOssPath,outputossPath,scene_file,frames,retType,...

STATUS

Failed:作业失败,但是尚未改写目标表数据。Cancelled:被取消。Terminated:作业已执行结束。使用示例-查看ID为20131225123xxxxxxxxxxxxxxx的实例状态。status 20131225123xxxxxxxxxxxxxxx;返回结果如下。Success 相关命令 SHOW:查看...

临时查询

在 新建交互式作业 对话框中,填写 作业名称 和 作业描述,从 作业类型 列表中,选择新建的作业类型。E-MapReduce数据开发支持Shell、SparkSQL、Spark Shell和HiveSQL四种类型的临时查询作业。注意 创建作业作业类型一经确定,不能修改。...

迁移方案

本文为您介绍从原有集群(线下IDC自建集群或ECS自建)迁移Flink作业到DataFlow集群的整体流程,包括准备工作,如何迁移作业,以及常见问题等。背景信息 EMR集群的基础信息,请参见 集群规划。准备工作 集群规划 创建DataFlow集群时,集群...

查看资源组监控

云原生数据仓库 AnalyticDB MySQL 版 湖仓版(3.0)的资源管理既可以展示集群级别的计算和存储资源用量,也展示资源组和作业级别的计算资源使用情况。本文介绍如何通过资源管理查看集群、资源组、作业的资源用量,包括预留资源用量和弹性...

如何选择备案类型?

限制说明 内容不可涉及企业、行业、交易等 不得超出主体证件的经营范围以外的内容 变更备案的类型 备案成功后个人性质备案不可变更为其他个人,部分地区若个人为企业法人可由个人性质备案变更为企业。由于各地区管局规则不同,变更备案的...

Spark作业配置

本文介绍如何配置Spark类型的作业。前提条件 已创建好项目,详情请参见 项目管理。操作步骤 进入数据开发的项目列表页面。通过阿里云账号登录 阿里云E-MapReduce控制台。在顶部菜单栏处,根据实际情况选择地域 和资源组。单击上方的 数据...

管理运维中心

本文介绍通过运维中心可以查看作业概览,监控任务运行状态,管理流式作业和查看审计日志,便于对作业的管理和运维。前提条件 已创建项目,详情请参见 新建项目。查看作业概览 使用阿里云账号登录 Databricks数据洞察控制台。在Databricks...

导入概述

本文为您介绍Doris数据导入支持的数据源、支持的数据格式以及特性。支持的数据源 Doris提供多种数据导入方案,可以针对...而对于异步导入方式,返回成功仅代表作业提交成功,不代表数据导入成功,需要使用对应的命令查看导入作业的运行状态。

计算资源使用

作业类型取值如下:SQL:SQL作业 SQLRT:查询加速SQL作业 SQLCost:SQL预估作业 LOT:MapReduce作业 CUPID:Spark或Mars作业 AlgoTask:机器学习作业 作业优先级 输入需要配置到规则里的作业优先级。输入 0-9 优先级区间,如:[0,3]表示...

查询作业

提交作业后,您可以在E-HPC客户端查询作业数据,包括作业名称、作业状态、作业运行开始和结束时间,以及作业详情等,便于您了解集群运行作业的情况,及时调整作业任务。使用限制 如果集群采用标准方式部署,则仅支持具有sudo权限的用户查询...

Hadoop MapReduce作业配置

本文介绍如何配置Hadoop MapReduce类型的作业。前提条件 已创建好项目,详情请参见 项目管理。操作步骤 进入数据开发的项目列表页面。通过阿里云账号登录 阿里云E-MapReduce控制台。在顶部菜单栏处,根据实际情况选择地域 和资源组。单击...

Job型资源组的优先级队列

本文介绍设置 湖仓版(3.0)Job型资源组的作业优先级和查看优先级的方法。前提条件 AnalyticDB MySQL 湖仓版(3.0)集群的内核版本为3.1.6.3及以上版本。已创建Job型资源组,且提交作业时选择在Job型资源组中运行。注意事项 暂不支持修改已...

Spark Streaming作业配置

本文介绍如何配置Spark Streaming类型的作业。前提条件 已创建好项目,详情请参见 项目管理。已准备好作业所需的资源,以及作业要处理的数据。操作步骤 进入数据开发的项目列表页面。通过阿里云账号登录 阿里云E-MapReduce控制台。在顶部...

Data Engineering的创建与使用

本文通过一个简单的案例介绍了Data Engineering的创建和使用,包括如何创建和初始化虚拟Spark集群,以及如何创建和提交Spark作业。前提条件 由于Data-Service集群的Management Console部署在内网中,因此需要通过SSH隧道访问。隧道的打通请...

作业启动

完成作业开发和部署后,您需要在作业运维页面启动作业至运行阶段。此外,作业在停止后需要恢复、更新了非动态生效的参数配置需要生效时,也需要启动作业。本文为您介绍如何启动作业。前提条件 已完成作业部署,详情请参见 部署作业。使用...

2023-10-23版本

部署作业 增强作业排序筛选能力 在作业运维页面,支持根据作业健康分、业务延迟进行排序,支持根据修改人筛选作业。暂无 支持RAM角色、资源目录成员、云SSO用户登录鉴权 阿里云账号体系全面适配,包括阿里云账号、RAM用户、RAM角色、资源...

通过控制台管理作业

本文介绍通过 云原生多模数据库 Lindorm 控制台管理计算引擎作业,包括创建、查看和终止Spark作业。前提条件 已开通计算引擎。如何开通,请参见 开通与变配。已完成作业开发。如何开发,请参见 JAR作业开发实践 或 Python作业开发实践。已...

作业引擎版本升级

升级流程 步骤一:备份作业状态 您可以在 作业运维 页面,单击目标作业,在作业详情中的 状态集管理 页签查看作业状态集,详情请参见 查看状态生成总览。如果您的作业属于有状态计算,那么在升级版本时,首要考虑的是状态能否复用。升级前...

作业智能诊断

Flink Advisor作业智能诊断服务能够帮您监控作业健康状况,分析和诊断错误日志、异常运行和风险情况,并提供可理解和可操作的诊断建议,全面保障您的业务稳定可靠运行。本文为您介绍如何使用作业智能诊断服务。背景信息 Flink Advisor作业...

作业状态集管理

系统检查点(Checkpoint)和作业快照(Savepoint)统称为状态集。本文为您介绍如何管理作业的状态集,包括创建、查看、删除和从指定状态恢复。背景信息 概念 详情 系统检查点(对应Apache Flink中的Checkpoint)生命周期完全由Flink系统...

工作流调度Zeppelin Notebook

在Databricks数据开发中,您可以在项目空间的作业编辑中创建一组有依赖的 Zeppelin 作业,然后创建工作流,按照依赖次序定义执行顺序,Databricks工作流支持基于有向无环(DAG)并行执行大数据作业。前提条件 通过主账号登录 阿里云 ...

基本概念

层次结构 您可以了解实时计算Flink版产品基本概念的层次结构,为后期作业开发、作业部署、作业运维和安全管理等操作提供思路。实时计算Flink版产品基本概念的层次结构如下图所示。概念说明 基本概念 说明 相关文档 工作空间(Workspace)...

查看血缘关系

Flink作业的血缘关系可以进行作业的数据溯源和追踪、帮助您更好地管理和优化作业的数据流、快速定位问题和评估影响面。本文为您介绍如何通过作业角度和元数据角度查看血缘关系。背景信息 在数据的来源和变更历史无法追踪的情况下,数据的...

按量付费闲时版

SpotQuota且引用了OTS、OSS外部表的SQL作业)引用外部表的SpotSQL作业当日总费用=计算输入数据量×单价 计费单价如下:公共云:0.03元/GB 金融云:0.057元/GB SpotMapReduce作业(指计算配额为os_SpotQuota的MapReduce作业)SpotMapReduce...

管理作业模板

通过作业模板,您无需配置作业参数,即可快速创建作业,提高工作效率。本文介绍如何创建、使用、编辑、删除作业模板。创建作业模板 创建作业模板时,一个地域下最多可创建20个作业模板。登录 弹性高性能计算控制台。在顶部菜单栏左上角处,...
共有163条 < 1 2 3 4 ... 163 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据安全中心 开源大数据平台 E-MapReduce 实时计算 Flink版 批量计算 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用