概述

ON-OSS示例(Scala)OSS UnstructuredData示例(Scala)SparkPi示例(Scala)支持Spark Streaming LogHub示例(Scala)支持Spark Streaming LogHub写MaxCompute示例(Scala)支持Spark Streaming DataHub示例(Scala)支持Spark Streaming ...

【通知】下线任务编排(老)和数仓开发(老)功能

任务编排(老)和数仓开发(老)功能将于2022年6月30日逐步关闭线上功能入口,同时系统会将老版中未迁移的任务流自动迁移到新版中。背景信息 数据管理DMS中任务编排 和数仓开发功能都 存在新老两个版本,新版拥有更丰富的功能和更稳定的...

开发ODPS Spark任务

在ODPS Spark节点执行Java或Scala语言类型代码前,需先在本地或已有环境开发好MaxCompute Spark代码,建议使用MaxCompute Spark提供的 项目示例工程模板 进行开发。打包代码并上传至DataWorks。代码开发完成后,需将其打包,并通过...

开发ODPS Spark任务

在ODPS Spark节点执行Java或Scala语言类型代码前,需先在本地或已有环境开发好MaxCompute Spark代码,建议使用MaxCompute Spark提供的 项目示例工程模板 进行开发。打包代码并上传至DataWorks。代码开发完成后,需将其打包,并通过...

示例项目使用说明

开发流程 双击进入SparkWordCount.scala。进入作业配置界面。选择 SparkWordCount,在作业参数框中按照所需传入作业参数。单击 OK。单击 运行,执行作业。查看作业执行日志。Scala IDE for Eclipse 准备工作 安装Scala IDE for Eclipse、...

支持的检测规则

Scala编码风格检测 Scala 基于scalastyle工具进行scala编码风格检测,帮助开发者优化编码过程的产生的scala编码风格问题。Kotlin基础规则包 Kotlin 基于detekt检测工具帮助开发者检测与修复kotlin开发过程中的编码问题,帮助开发人员提高...

Python作业开发

本文为您介绍Flink Python API作业开发的背景信息、使用限制、开发方法、调试方法和连接器使用等。背景信息 Flink Python作业需要您在本地完成开发工作,Python作业开发完成后,再在Flink开发控制台上部署并启动才能看到业务效果。整体的...

模拟IDC Spark读写MaxCompute实践

说明 读分区表、写非分区表和写分区表代码示例请参见 PartitionDataReaderTest.scala、DataWriterTest.scala 和 PartitionDataWriterTest.scala,可以根据实际业务情况进行代码开发。Licensed under the Apache License,Version 2.0(the...

物联网应用开发

物联网应用开发(IoT Studio)是阿里云物联网平台的一部分,提供了可视化开发、业务逻辑开发与物联网数据分析等一系列便捷的物联网开发工具,解决了物联网开发领域开发链路长、技术栈复杂、协同成本高、方案移植困难等问题。

移动开发平台 mPaaS

移动开发平台(mPaaS)是源于支付宝的移动开发平台,为移动开发、测试、运营及运维提供云到端的一站式解决方案,能有效降低技术门槛、减少研发成本、提升开发效率,协助企业快速搭建稳定高质量的移动应用。

自动驾驶云开发平台

自动驾驶云开发平台,是阿里云面向自动驾驶企业在云端供应的开发工具体系,让自动驾驶企业更高效、高性价比的利用阿里云。

多端低代码开发平台魔笔

多端低代码开发平台魔笔(Low Code Development Platform Mobi)是面向企业客户和开发者的通用型低代码开发平台,提供一站式的可视化应用搭建、生成、运维服务,支持Web、H5、全平台小程序等应用的研发。支持被业务平台集成,快速沉淀业务...

开发平台(文档停止维护)

开发平台,https://workbench.aliyun.com,是阿里云面向广大开发者提供的云上研发工作平台,助力研发团队实现工作的在线化(团队在线、环境在线、代码在线、协同在线)以及研发模式Serverless化,帮助研发团队实现对行业架构经验及架构...

大数据开发治理平台 DataWorks

大数据开发治理平台 DataWorks基于MaxCompute/EMR/MC-Hologres等大数据计算引擎,为客户提供专业高效、安全可靠的一站式大数据开发与治理平台,自带阿里巴巴数据中台与数据治理最佳实践,赋能各行业数字化转型。每天阿里巴巴集团内部有数万...

引擎版本介绍

Scala*表示该引擎版本所支持的Scala编程语言的版本,例如Scala 2.12。Java Runtime 指Spark应用在标准的Java虚拟机(JVM)上运行,所有Spark任务都是通过Java或Scala代码执行。Native Runtime 使用阿里云Fusion Engine提供的运行时环境,...

JAR作业开发

本文为您介绍Flink JAR作业的开发方法和调试方法。背景信息 Flink Datastream提供了阿里云Flink全托管产品的底层API调用功能,方便您灵活地使用Flink全托管。目前实时计算Flink支持的Datastream API完全兼容开源的Flink版本,详情请参见 ...

自定义标量函数(UDSF)

仅支持开源Scala V2.11版本,如果Python作业中依赖第三方JAR包,请确保使用Scala V2.11对应的JAR包依赖。UDSF开发 说明 Flink为您提供了Python自定义函数示例,便于您快速开发自定义函数。Flink Python自定义函数示例中包含了Python UDSF、...

快速开始

...scala.version>2.11.12</scala.version> <scala.binary.version>2.11</scala.binary.version> <scala.xml.version>1.0.6</scala.xml.version> <scala.parsers.version>1.0.6</scala.parsers.version> <scalalogging.version>3.8.0</scalalogging.version> <spark.version>2.4.3</spark.version> <kryo.version>3.0.3</kryo.version> </properties> <dependencies> <dependency> <groupId>com.aliyun.ganos</groupId> <artifactId>dla-ganos-sdk</artifactId> <version>1.0</version> <scope>system</scope> <systemPath>下载的dla-ganos-sdk-1.0.jar的路径</systemPath></dependency><dependency><groupId>io.spray</groupId><artifactId>spray-json_2.11</artifactId>...

自定义表值函数(UDTF)

仅支持开源Scala V2.11版本,如果Python作业中依赖第三方JAR包,请确保使用Scala V2.11对应的JAR包依赖。UDTF开发 说明 Flink为您提供了Python UDX示例,便于您快速开发UDX。Flink Python UDX示例中包含了Python UDF、Python UDAF和Python ...

自定义聚合函数(UDAF)

仅支持开源Scala V2.11版本,如果Python作业中依赖第三方JAR包,请确保使用Scala V2.11对应的JAR包依赖。UDAF开发 说明 Flink为您提供了Python UDX示例,便于您快速开发UDX。Flink Python UDX示例中包含了Python UDF、Python UDAF和Python ...

作业上线问题

234)at scala.collection.Iterator$class.foreach(Iterator.scala:891)at scala.collection.AbstractIterator.foreach(Iterator.scala:1334)at scala.collection.IterableLike$class.foreach(IterableLike.scala:72)at scala.collection....

从Spark导入

find./build.sbt./src./src/main./src/main/scala./src/main/scala/com ./src/main/scala/com/spark ./src/main/scala/com/spark/test ./src/main/scala/com/spark/test/WriteToCk.scala 编辑build.sbt配置文件并添加依赖。name:="Simple ...

使用JDBC Connector导入

package org.myorg.example import org.apache.flink.streaming.api.scala._import org.apache.flink.table.sources._import org.apache.flink.table.api.scala.StreamTableEnvironment import org.apache.flink.table.api._import org....

表流读写

Scala%spark spark.readStream.format("delta").load("/mnt/delta/events")或 Scala%spark spark.readStream.format("delta").table("events")你也可以执行以下操作:通过设置maxFilesPerTrigger选项,控制Delta Lake提供给流的任何微批...

数据类型

了解Spark数据类型、Scala中的值类型、表格存储中多元索引数据类型和表格存储表中数据类型的对应关系。使用过程中请确保Spark、Scala和表格存储中字段或值的数据类型相匹配。基础数据类型 基础数据类型的支持情况请参见下表。Spark数据类型...

批式读写

建表并写入数据 Scala/非分区表 data.write.format("delta").save("/tmp/delta_table")/分区表 data.write.format("delta").partitionedBy("date").save("/tmp/delta_table")SQL-非分区表 CREATE TABLE delta_table(id INT)USING delta ...

入门笔记本

Delta Lake Quickstart Python笔记本 Note 链接地址:Databricks Delta Quickstart(Python)Delta Lake Quickstart Scala笔记本 Note 链接地址:Databricks Delta Quickstart(Scala)Delta Lake快速入门SQL笔记本 Note 链接地址:Databricks ...

Spark-2.x示例

支持Spark StructuredStreaming DataHub示例(Scala)代码示例 DatahubStructuredStreamingDemo.scala 提交方式#环境变量spark-defaults.conf的配置请参见搭建开发环境。cd$SPARK_HOME bin/spark-submit-master yarn-cluster-class ...

Livy

Livy是一个通过REST接口或RPC client库与Spark服务进行交互的服务。Livy支持提交Spark作业或者Spark代码片段,同步或者异步的进行结果检索以及Spark ...提交作业 您可以通过以下方式提交作业:REST API Programmatic API Java API Scala API

客户端

php-sdk)Python InfluxDB-Python(influxdb-python)R influxdbr Ruby influxdb-ruby Influxer(influxer)Scala scala-influxdb-client chronicler Sensu sensu-influxdb-extension SNMP agent SnmpCollector(snmpcollector)

如何分配开发任务

在团队协同开发任务中,管理员创建好应用之后,可以将应用的开发任务分配给不同的团队成员。为应用分配开发成员 管理员在「应用列表」找到要进行开发任务分配的应用,点击进入「应用详情页」,在左侧菜单点击「开发者管理」,点击「添加...

关于开发小助手

在将开发工程接入 mPaaS 后或基于 mPaaS 插件创建工程后,即可将开发小助手接入开发工程(点击快速了解如何使用开发小助手),使用开发小助手进行调试、帮助开发。说明 开发小助手有以下使用限制:开发小助手仅支持组件化 Portal&Bundle 接...

发布与使用

个人组件开发验证完成后,为方便开发者使用个人组件开发可视化Web应用,需要完成个人组件的发布。本文介绍如何发布个人组件。背景信息 个人组件开发完成后:支持开发者在Web可视化编辑页面的个人开发组件列表预览未发布组件。支持开发者...

创建组件

开发组件前,需先创建组件来定义组件名称、类型和功能特性描述,便于组件发布后引导开发者使用。本文介绍如何在组件开发工作台创建组件。新增组件 登录 物联网应用开发控制台,在页面左上角选择对应实例后,在左侧导航栏单击 应用开发。在 ...

使用开发小助手

接入开发小助手 为保证功能的完整性和独立性,离线包中心(需先集成 H5 容器及离线包)功能需要以 离线包开发助手 的形式在 mPaaS 插件中单独接入,其余功能通过接入 开发小助手 完成接入。离线包小助手单向依赖开发小助手,离线包开发...

概述

IoT Studio提供了组件开发功能,便于开发者开发、发布和管理自己研发的组件,并将其发布到可视化工作台中用于可视化页面搭建。从而满足开发者的需求,提升组件丰富性,为可视化搭建提供无限可能。使用说明 组件开发功能升级中,暂停新用户...

创建并管理MaxCompute节点

DataWorks为您提供多种MaxCompute节点,便于您根据需要开发不同类型的MaxCompute任务,并为您提供丰富的节点调度配置,帮助您灵活设置MaxCompute任务的调度,本文为您介绍创建并管理MaxCompute节点的通用操作指导。前提条件 已创建业务流程...

数据开发概述

DataWorks数据开发(DataStudio)模块用于定义周期调度任务的开发及调度属性,与运维中心配合使用,面向各引擎(MaxCompute、Hologres、EMR等)提供可视化开发主界面,支持智能代码开发、多引擎混编工作流、规范化任务发布等能力,帮助您...

关于开发小助手

开发小助手 DevHelper 提供了常用的辅助开发工具和 mPaaS 专用辅助工具,该工具集通过 mPaaS 插件提供给开发者。在将开发小助手接入开发工程后,您就可以使用开发小助手进行调试、帮助开发。在应用中,开发小助手以悬浮窗的形式出现,在...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
其他人还在搜
java8list转map java集合set jdk1.8list转map pythonpath函数 python遍历set scala编程 scala当前时间 scala官网 scala和java的区别 scala获取当前时间
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
移动开发平台 mPaaS 云解析DNS 文件存储NAS 大数据开发治理平台 DataWorks 云效(老版) 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用