2019年

本文为您介绍了MaxCompute 2019年内容更新的最新动态,基于此您可以了解MaxCompute中增加了哪些新功能、语法新特性和权限变更,提升项目开发效率。2019年12月更新记录 时间 特性 类别 描述 产品文档 2019-12-31 新增Oracle数据迁移...

表实用程序命令

请参见 Databricks Runtime 7.0及更高版本:DESCRIBE HISTORY(Delta Lake on Databricks)Databricks Runtime 6.x及更低版本:Describe History(Delta Lake on Databricks)有关Scala,Java和Python语法的详细信息,请参见 API参考。...

支持的检测规则

Scala编码风格检测 Scala 基于scalastyle工具进行scala编码风格检测,帮助开发者优化编码过程的产生的scala编码风格问题。Kotlin基础规则包 Kotlin 基于detekt检测工具帮助开发者检测与修复kotlin开发过程中的编码问题,帮助开发人员提高...

概述

ON-OSS示例(Scala)OSS UnstructuredData示例(Scala)SparkPi示例(Scala)支持Spark Streaming LogHub示例(Scala)支持Spark Streaming LogHub写MaxCompute示例(Scala)支持Spark Streaming DataHub示例(Scala)支持Spark Streaming ...

Spark-1.x示例

spark.version>1.6.3</spark.version><cupid.sdk.version>3.3.3-public</cupid.sdk.version><scala.version>2.10.4</scala.version><scala.binary.version>2.10</scala.binary.version></properties><dependency><groupId>org...

引擎版本介绍

Scala*表示该引擎版本所支持的Scala编程语言的版本,例如Scala 2.12。Java Runtime 指Spark应用在标准的Java虚拟机(JVM)上运行,所有Spark任务都是通过Java或Scala代码执行。Native Runtime 使用阿里云Fusion Engine提供的运行时环境,...

快速开始

...scala.version>2.11.12</scala.version> <scala.binary.version>2.11</scala.binary.version> <scala.xml.version>1.0.6</scala.xml.version> <scala.parsers.version>1.0.6</scala.parsers.version> <scalalogging.version>3.8.0</scalalogging.version> <spark.version>2.4.3</spark.version> <kryo.version>3.0.3</kryo.version> </properties> <dependencies> <dependency> <groupId>com.aliyun.ganos</groupId> <artifactId>dla-ganos-sdk</artifactId> <version>1.0</version> <scope>system</scope> <systemPath>下载的dla-ganos-sdk-1.0.jar的路径</systemPath></dependency><dependency><groupId>io.spray</groupId><artifactId>spray-json_2.11</artifactId>...

作业上线问题

234)at scala.collection.Iterator$class.foreach(Iterator.scala:891)at scala.collection.AbstractIterator.foreach(Iterator.scala:1334)at scala.collection.IterableLike$class.foreach(IterableLike.scala:72)at scala.collection....

Flink

背景信息 Zeppelin支持Flink的3种主流语言,包括Scala、PyFlink和SQL。Zeppelin中所有语言共用一个Flink Application,即共享一个ExecutionEnvironment和StreamExecutionEnvironment。例如,您在Scala里注册的table和UDF是可以被其他语言...

从Spark导入

find./build.sbt./src./src/main./src/main/scala./src/main/scala/com ./src/main/scala/com/spark ./src/main/scala/com/spark/test ./src/main/scala/com/spark/test/WriteToCk.scala 编辑build.sbt配置文件并添加依赖。name:="Simple ...

Spark-2.x示例

spark.version>2.3.0</spark.version><cupid.sdk.version>3.3.8-public</cupid.sdk.version><scala.version>2.11.8</scala.version><scala.binary.version>2.11</scala.binary.version></properties><dependency><groupId>org...

使用JDBC Connector导入

package org.myorg.example import org.apache.flink.streaming.api.scala._import org.apache.flink.table.sources._import org.apache.flink.table.api.scala.StreamTableEnvironment import org.apache.flink.table.api._import org....

开发ODPS Spark任务

Java/Scala 在ODPS Spark节点执行Java或Scala语言类型代码前,您需先在本地开发好MaxCompute Spark作业代码,再通过DataWorks上传为MaxCompute的资源。步骤如下:准备开发环境。根据所使用系统类型,准备运行MaxCompute Spark任务的开发...

开发ODPS Spark任务

Java/Scala 在ODPS Spark节点执行Java或Scala语言类型代码前,您需先在本地开发好MaxCompute Spark作业代码,再通过DataWorks上传为MaxCompute的资源。步骤如下:准备开发环境。根据所使用系统类型,准备运行MaxCompute Spark任务的开发...

表流读写

Scala%spark spark.readStream.format("delta").load("/mnt/delta/events")或 Scala%spark spark.readStream.format("delta").table("events")你也可以执行以下操作:通过设置maxFilesPerTrigger选项,控制Delta Lake提供给流的任何微批...

内置的安全审计规则

数据库探测 查看是否是DBO(SQLSERVE语法)中 数据库探测 查看是否对库有读权限(SQLSERVE语法)中 数据库探测 查看本地服务名(SQLSERVE语法)中 数据库探测 获取表信息(POSTGRESQL语法)中 数据库探测 查看服务器地址(POSTGRESQL语法)...

数据类型

了解Spark数据类型、Scala中的值类型、表格存储中多元索引数据类型和表格存储表中数据类型的对应关系。使用过程中请确保Spark、Scala和表格存储中字段或值的数据类型相匹配。基础数据类型 基础数据类型的支持情况请参见下表。Spark数据类型...

批式读写

建表并写入数据 Scala/非分区表 data.write.format("delta").save("/tmp/delta_table")/分区表 data.write.format("delta").partitionedBy("date").save("/tmp/delta_table")SQL-非分区表 CREATE TABLE delta_table(id INT)USING delta ...

入门笔记本

Delta Lake Quickstart Python笔记本 Note 链接地址:Databricks Delta Quickstart(Python)Delta Lake Quickstart Scala笔记本 Note 链接地址:Databricks Delta Quickstart(Scala)Delta Lake快速入门SQL笔记本 Note 链接地址:Databricks ...

Spark使用OSS Select加速数据查询

help for more information.scala>val myfile=sc.textFile("oss:/{your-bucket-name}/50/store_sales")myfile:org.apache.spark.rdd.RDD[String]=oss:/{your-bucket-name}/50/store_sales MapPartitionsRDD[1]at textFile at<console>:24 ...

Livy

Livy是一个通过REST接口或RPC client库与Spark服务进行交互的服务。Livy支持提交Spark作业或者Spark代码片段,同步或者异步的进行结果检索以及Spark ...提交作业 您可以通过以下方式提交作业:REST API Programmatic API Java API Scala API

客户端

php-sdk)Python InfluxDB-Python(influxdb-python)R influxdbr Ruby influxdb-ruby Influxer(influxer)Scala scala-influxdb-client chronicler Sensu sensu-influxdb-extension SNMP agent SnmpCollector(snmpcollector)

示例项目使用说明

IntelliJ IDEA 准备工作 安装IntelliJ IDEA、Maven、IntelliJ IDEA Maven插件、Scala和IntelliJ IDEA Scala插件。开发流程 双击进入SparkWordCount.scala。进入作业配置界面。选择 SparkWordCount,在作业参数框中按照所需传入作业参数。...

结构迁移操作说明

状态 支持的操作 初始化中-获取 DDL 成功、创建中和已就绪 查看创建语法 已完成、已完成(有转换)和已跳过 移除、查看创建语法 失败 重试、跳过、移除、查看错误详情和修改创建语法 获取 DDL 失败 重试、跳过、查看和修改创建语法 不支持 ...

JMES语法

本视频向您介绍日志服务数据加工语法中JMES的语法

语法

云数据库ClickHouse语法介绍的详细信息,请参见 语法

字符串语法

本视频向您介绍日志服务数据加工的字符串查询语法。字符串语法一:字符串语法二:

时序数据查询和分析简介

本文介绍时序数据的查询和分析语法及使用限制。日志服务提供如下三种时序数据查询和分析方式:PromQL语法:使用PromQL(Prometheus的查询语言)语法简化对时序数据的查询和分析。更多信息,请参见 Prometheus官方文档。SQL语法:根据时序...

Oracle语法支持

Intersect 和 Minus/Except MySQL只支持Union,而HybridDB for MySQL扩展兼容了Oracle的Intersect和Minus/Except语法,详细请参见 查询语法。Full outer join MySQL不支持Full outer join,而HybridDB for MySQL扩展兼容了full outer join...

请求语法

日志服务CLI提供三种语法格式,用于执行子命令、配置CLI和获取帮助等。本文介绍日志服务CLI的三种语法格式。CLI子命令 支持的日志服务CLI子命令,例如创建Project、Logstore等基本操作。语法格式 aliyunlog log[parameters|global options]...

DROP DATABASE

DROP DATABASE语法用于删除指定的数据库。引擎与版本 DROP DATABASE语法适用于宽表引擎和时序引擎。宽表引擎仅2.2.16及以上版本支持DROP DATABASE语法。时序引擎无版本限制。语法 drop_database_statement:=DROP DATABASE[IF EXISTS]...

与其他SQL语法的差异

本文将MaxCompute SQL与Hive、MySQL、Oracle、SQL Server的SQL语法进行对比,为您介绍MaxCompute不支持的语法。MaxComputeDDL语法差异对比 语法 MaxCompute Hive MySQL Oracle SQL Server CREATE TABLE—PRIMARY KEY N N Y Y Y CREATE ...

YAML辅助编辑器

云效 Flow 基于流水线 YAML 语法提供辅助编辑能力,提供常用流水线、常用任务 YAML 模板,提供内置 YAML 手册随手查阅,支持 YAML 语法自动补齐、实时校验并推荐修复方案,以及多种快捷键操作等,帮助提升 YAML 编写效率。提供常用流水线 ...

ALTER ROLE

PolarDB PostgreSQL版(兼容Oracle)包含 ALTER ROLE 命令的额外语法(Oracle 未提供)。在分配与创建和删除与 Oracle 数据库兼容的 database link 以及细粒度访问控制(使用 DBMS_RLS)相关的特权时,此语法非常有用。CREATE DATABASE ...

Quick BI中加速对SQL语法的要求

概述 Quick BI中加速对SQL语法的要求。详细信息 对SQL语法的要求是在MaxCompute和Presto都支持的语法,SQL执行过程中才会用到加速。加速引擎的逻辑是:数据从MaxCompute同步到Presto中,然后用相同SQL在Presto中查询,所以需要使用二个环境...

DESCRIBE

本节介绍DESCRIBE语法的说明和示例。DESCRIBE KEYSPACES 输出所有Keyspace的名称。语法 DESCRIBE KEYSPACES 示例 DESCRIBE KEYSPACES;DESCRIBE KEYSPACE 输出对应Keyspace组织结构以及该Keyspace下所有相关的表、UDT、UDF等Schema状态。...

几何类型

本文介绍了几何类型的定义及相关语法。几何数据类型表示二维的空间物体。下表展示了本数据库中可以用的几何类型。名字 存储尺寸 表示 描述 point 16字节 平面上的点(x,y)line 32字节 无限长的线 {A,B,C} lseg 32字节 有限线段((x1,y1),(x2,...

基础语法

本视频向您介绍日志服务数据加工的基础语法

搭建Windows开发环境

Scala 本文采用Scala 2.13.10,Scala官网下载地址请参见 Scala官网。下载MaxCompute Spark客户端包 MaxCompute Spark发布包集成了MaxCompute认证功能。作为客户端工具,它通过Spark-Submit方式提交作业到MaxCompute项目中运行。MaxCompute...

日期和时间函数

支持的语法:DATE(expr)例子:SELECT DATE('2003-12-31 01:02:03')DATEDIFF DATEDIFF()returns expr1 − expr2 expressed as a value in days from one date to the other.expr1 and expr2 are date or date-and-time expressions.Only the...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
其他人还在搜
java8list转map java集合set jdk1.8list转map pythonpath函数 python遍历set scala编程 scala当前时间 scala官网 scala和java的区别 scala获取当前时间
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生数据仓库AnalyticDB MySQL版 云原生数据仓库 AnalyticDB PostgreSQL版 云数据库Cassandra版 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用