[帮助文档] 使用DataWorks周期性执行Kyuubi任务

DataWorks的EMR Kyuubi节点可进行Kyuubi任务的开发和周期性调度,以及与其他作业的集成操作。本文为您介绍使用EMR Kyuubi节点进行任务开发的主要流程。

[帮助文档] 任务模板和Compute模板

阿里云E-MapReduce (简称EMR) Serverless Spark提供了任务模板和SQL Compute模板两种模板,以支持不同的任务执行和管理需求。任务模板适用于有固定执行参数和资源需求的批处理任务,而SQL Compute模板适合SQL任务的开发和快速迭代。本文档将指导您如何有效地使...

阿里云大数据工程师ACA认证(2023版)

21 课时 |
807 人已学 |
免费

基于MaxCompute的热门话题分析

8 课时 |
329 人已学 |
免费

独家揭秘当下大数据体系

4 课时 |
331 人已学 |
免费
开发者课程背景图

[帮助文档] Spark SQL任务快速入门

EMR Serverless Spark支持通过SQL代码编辑和运行任务。本文带您快速体验Spark SQL任务的创建、启动和运维等操作。

[帮助文档] Application任务开发

本文为您介绍Application任务开发的配置项说明和操作步骤。

[帮助文档] PySpark任务开发入门

您可以自行编写并构建包含业务逻辑的Python脚本,上传该脚本后,即可便捷地创建和执行PySpark任务。本文通过一个示例,为您演示如何进行PySpark任务的开发与部署。

MaxCompute 中,节点任务的参数如何传递到spark的输入参数

MaxCompute中,节点任务的参数如何传递到spark的输入参数,例如设置了任务参数bizdate,在spark程序的输入参数这么用可以吗?

看MaxCompute(原ODPS)说明文档说输入数据只能是表结构 1.是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现 2.是否支持其他的数据工具,如何跑基于spark的任务

看MaxCompute(原ODPS)说明文档说输入数据只能是表结构1.是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现2.是否支持其他的数据工具,如何跑基于spark的任务

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里巴巴大数据计算
阿里巴巴大数据计算
阿里大数据官方技术圈
347750+人已加入
加入
相关电子书
更多
Lindorm一站式车联网数据平台
Lindorm一站式AI数据平台实战
Lindorm:打造AI时代的 一体化数据平台
立即下载 立即下载 立即下载

云原生大数据计算服务 MaxCompute任务相关内容

云原生大数据计算服务 MaxCompute更多任务相关