快速入门

本文以开发WordCount MapReduce作业为例,为您介绍如何通过MaxCompute Studio编写MapReduce程序及生成JAR包,并在MaxCompute客户端上运行MapReduce作业。前提条件 请确认您已满足如下条件:已安装并配置MaxCompute客户端。更多安装并配置...

通过CDH5 Hadoop读取和写入OSS数据

4.5.2.jar httpclient-4.5.2.jar[root@cdh-master lib]#ln-s./././jars/httpcore-4.4.4.jar httpcore-4.4.4.jar[root@cdh-master lib]#ln-s./././jars/hadoop-aliyun-2.6.0-cdh5.14.4.jar hadoop-aliyun.jar[root@cdh-master lib]#ln-s././...

Ark Biz 介绍

├─spring-boot-devtools-1.4.2.RELEASE.jar│├─spring-boot-starter-1.4.2.RELEASE.jar│├─spring-boot-starter-logging-1.4.2.RELEASE.jar│├─spring-boot-starter-tomcat-1.4.2.RELEASE.jar│├─spring-boot-starter-web-1.4.2....

模拟IDC Spark读写MaxCompute实践

mvn clean package jar:test-jar 查看 target 目录下是否有 dependencies.jar 和 tests.jar。上传jar包至服务器。在本地使用 scp 命令上传已经打包好的jar包和依赖的jar包至服务器,命令语法如下。scp<本地jar包路径>root@实例公网IP>:...

快速入门视频

构建.jar包命令:mvn install-Dmaven.test.skip=true Dockerfile文件内容:FROM maven:3.5-jdk-8 COPY target/iot-demo-0.0.1-SNAPSHOT.jar/iot-demo.jar EXPOSE 8080 ENTRYPOINT["/bin/bash","-c","java-jar/iot-demo.jar-server.port=...

基础向量检索

resource_reference{"proxima-ce-aliyun-1.0.1.jar"}-引用上传的 proxima-ce jar 包,在左侧「业务流程——MaxCompute——资源」,右击刚刚上传的 jar 包,选择「引用资源」即可生成该行注释 jar-resources proxima-ce-aliyun-1.0.1.jar-...

版本说明

说明 如果需要使用Sping Cloud,还需要下载 txc-client-springcloud-2.8.94.jar。2.8.87 2023-01-16 支持使用半角分号;分隔的批量DML语法。支持insert语法指定多values,例:insert into.values(.),(.)。修复getUpdateCount返回值异常。...

版本说明

hitsdb-client-0.3.7.jar 0.3.6 增加 Config#lastResultReverseEnable()接口提供逆序查询时数据按时间戳逆序返回的能力。修复因错误依赖 javafx.util.Pair 而导致的运行时错误并添加API黑名单机制。修改合法的timestamp下限。修复...

动态加载UDF

背景信息 EMR-3.39.1之前版本和EMR-5.5.0之前版本的Trino新增UDF需要把JAR包上传到所有节点,然后重启服务器生效,此方式不是很方便。在on ACK场景下,如果需要使用新的UDF,还需重新打镜像,此方式不太友好。因此EMR-3.39.1及之后版本和...

Telnet 指令

SOFAArk 容器提供了一个简单的 telnet 服务端小工具,用于运行时查看容器状态,目前支持查看 Plugin 和 Biz 相关信息。使用方式 使用 telnet 命令连接服务端,端口号为 1234。命令格式如下:telnet localhost 1234 进入交互界面:➜ telnet.........

概述

本文将分别从Table/SQL JAR迁移至SQL、Datastream JAR迁移和Table/SQL JAR迁移至JAR三方面,为您介绍如何进行自建Flink作业迁移。背景信息 本文以统计每5分钟窗口内订单的订单总量和订单总金额的计算逻辑为例,为您介绍如何进行自建Flink...

开发和调试

commons-codec-1.3.jar commons-io-2.0.1.jar commons-lang-2.5.jar commons-logging-1.0.4.jar commons-logging-api-1.0.4.jar guava-14.0.jar json.jar log4j-1.2.15.jar slf4j-api-1.4.3.jar slf4j-log4j12-1.4.3.jar xmlenc-0.52.jar ...

安全设置

安全设置是您可以对数据安全及访问进行精细化控制、对Spark Jar任务的开关及鉴权模式的设置,来保障数据的安全性。本文为您介绍如何设置严格权限模式和Spark Jar任务。严格权限模式 背景信息 Dataphin管理中心支持项目安全模式设置功能,在...

创建EMR Spark节点

resource_reference{"spark-examples_2.11-2.4.0.jar"} spark-submit-class org.apache.spark.examples.SparkPi-master yarn spark-examples_2.11-2.4.0.jar 100 其中:org.apache.spark.examples.SparkPi:为您实际编译的JAR包中的任务主...

打包、上传及注册

当您完成Java程序开发及调试后,您需要将Java程序打包为JAR包并以资源形式上传至MaxCompute项目后,才可以注册MaxCompute UDF,供后续在数据开发中调用。本文为您介绍在MaxCompute Studio中一键完成Java程序打包为JAR包、上传JAR包为...

Spark SQL开发介绍

AnalyticDB MySQL版 Spark支持在控制台直接提交Spark SQL,无需编写JAR包或者Python代码,便于数据开发人员使用Spark进行数据分析。本文介绍 AnalyticDB MySQL版 Spark SQL应用的示例代码及命令类型。开发工具 您可以通过SQL开发编辑器创建...

自定义函数(UDF)

Added[/private/var/folders/2s/wzzsgpn13rn8rl_0fc4xxkc00000gp/T/40608d4a-a0e1-4bf5-92e8-b875fa6a1e53_resources/hiveudf-1.0-SNAPSHOT.jar]to class path Added resources:[hdfs:/user/hive/warehouse/myfunc/hiveudf-1.0-SNAPSHOT....

管理自定义函数(UDF)

为了避免JAR包依赖冲突,在开发自定义函数时您需要注意以下几点:作业开发页面选择的Flink版本,请和Pom依赖中的Flink版本保持一致。Flink相关依赖,scope请使用provided,即在依赖中添加<scope>provided。其他第三方依赖请采用Shade方式...

资源

上传JAR包的过程就是在MaxCompute上创建资源的过程,这个JAR包是MaxCompute资源的一种。MapReduce:您编写MapReduce程序后,将编译好的JAR包作为一种资源上传到MaxCompute。运行MapReduce作业时,MapReduce框架会自动下载这个JAR资源,获取...

安全设置

安全设置是您可以对数据安全及访问进行精细化控制、对Spark Jar任务的开关及鉴权模式的设置,来保障数据的安全性。本文为您介绍如何设置严格权限模式和Spark Jar任务。严格权限模式 背景信息 Dataphin管理中心支持项目安全模式设置功能,在...

ALIAS

为资源创建别名。...ADD JAR:添加JAR类型的资源。ADD PY:添加Python类型的资源。ADD TABLE:添加TABLE类型的资源。DESC RESOURCE:查看资源信息。LIST RESOURCES:查看资源列表。GET RESOURCE:下载资源。DROP RESOURCE:删除资源。

本地运行

如需在私有服务器(已安装相应版本 JDK)上进行测试,可将上述第 2 步生成的 {XXX}-executable.jar 文件拷贝到服务器,然后使用 java-jar XXX-executable.jar 命令行执行该文件。编译结果验证 通过以上任意一种方式运行工程后,您可以通过...

SparkSQL UDF基础操作

说明 代码中的 myfunc 是UDF函数的名称,org.example.MyUDF 是开发UDF中创建的类,hdfs:/user/hive/warehouse/hiveudf-1.0-SNAPSHOT.jar 为上传JAR包到HDFS的路径。执行以下命令,使用UDF函数。该函数与内置函数使用方式一样,直接使用函数...

资源操作

Resource Name Owner Creation Time Last Modified Time Type Last Updator Resource Size Source comment getaddr.jar ALIYUN$2020-06-18 15:47:28 2020-06-18 15:47:28 jar 1353716 cloudopenapi ip.dat ALIYUN$2020-06-18 15:49:46 2020...

制作 SOFABoot 应用的 Docker 镜像

COPY sofaboot-docker-demo-web-1.0.0.jar/app.jar 将应用 JAR 包复制到/app.jar。ENTRYPOINT 表示容器运行后默认执行的命令。配置 Maven 打包插件 在 app/web 模块的 pom 文件中添加 docker maven 的打包插件:说明 仔细检查本地镜像打包...

Sleep示例

测试准备 准备好测试程序的JAR包,假设名字为 mapreduce-examples.jar,本地存放路径为 data\resources。准备好SleepJob的测试资源。add jar data\resources\mapreduce-examples.jar-f;测试步骤 在MaxCompute客户端中执行Sleep。jar-...

Jindo DistCp场景化使用指导

本文通过场景化为您介绍如何使用Jindo DistCp。前提条件 已创建相应版本...hadoop jar jindo-distcp-<version>.jar-src/data/incoming/hourly_table-dest oss:/yang-hhht/hourly_table-ossKey yourkey-ossSecret yoursecret-ossEndPoint oss-...

Jindo DistCp场景化使用指导

本文通过场景化为您介绍如何使用Jindo DistCp。前提条件 已创建相应版本...hadoop jar jindo-distcp-<version>.jar-src/data/incoming/hourly_table-dest oss:/yang-hhht/hourly_table-ossKey yourkey-ossSecret yoursecret-ossEndPoint oss-...

Jindo DistCp场景化使用指导

本文通过场景化为您介绍如何使用Jindo DistCp。前提条件 已创建相应版本...hadoop jar jindo-distcp-<version>.jar-src/data/incoming/hourly_table-dest oss:/yang-hhht/hourly_table-ossKey yourkey-ossSecret yoursecret-ossEndPoint oss-...

Jindo DistCp场景化使用指导

本文通过场景化为您介绍如何使用Jindo DistCp。前提条件 已创建相应版本...hadoop jar jindo-distcp-<version>.jar-src/data/incoming/hourly_table-dest oss:/yang-hhht/hourly_table-ossKey yourkey-ossSecret yoursecret-ossEndPoint oss-...

Jindo DistCp场景化使用指导

hadoop jar jindo-distcp-<version>.jar-src/data/incoming/hourly_table-dest oss:/destBucket/hourly_table-dest oss:/destBucket/hourly_table-previousManifest=file:/opt/manifest-2020-04-17.gz-copyFromManifest-parallelism 20 ...

Jindo DistCp场景化使用指导

hadoop jar jindo-distcp-<version>.jar-src/data/incoming/hourly_table-dest oss:/destBucket/hourly_table-dest oss:/destBucket/hourly_table-previousManifest=file:/opt/manifest-2020-04-17.gz-copyFromManifest-parallelism 20 ...

Jindo DistCp场景化使用指导

hadoop jar jindo-distcp-<version>.jar-src/data/incoming/hourly_table-dest oss:/destBucket/hourly_table-dest oss:/destBucket/hourly_table-previousManifest=file:/opt/manifest-2020-04-17.gz-copyFromManifest-parallelism 20 ...

Jindo DistCp场景化使用指导

hadoop jar jindo-distcp-<version>.jar-src/data/incoming/hourly_table-dest oss:/destBucket/hourly_table-dest oss:/destBucket/hourly_table-previousManifest=file:/opt/manifest-2020-04-17.gz-copyFromManifest-parallelism 20 ...

本地运行和调试包含连接器的作业

例如对于 大数据计算服务MaxCompute 使用的依赖ververica-connector-odps,以1.17-vvr-8.0.4-1版本为例,可以在 Maven仓库对应目录 下看到后缀为uber.jar的ververica-connector-odps-1.17-vvr-8.0.4-1-uber.jar,将其下载到本地目录。...

Spark应用开发介绍

jars 否"jars":["oss:/<testBucketName>/path/to/jar","oss:/testBucketName/path/to/jar"]Spark应用依赖的JAR包,多个JAR包之间以英文逗号(,)分隔。需填写JAR包文件的绝对路径。JAR包在运行时会被加入到Driver和Executor JVM的ClassPath...

开发ODPS MR任务

一个MR调用多个JAR资源时,classpath写法为-classpath./xxxx1.jar,./xxxx2.jar,即两个路径之间用英文逗号(,)分隔。返回结果:OK 在ODPS SQL节点中查询输出表 wc_out 的数据。select*from wc_out;返回结果:+-+-+|key|cnt|+-+-+|package|...

开发ODPS MR任务

一个MR调用多个JAR资源时,classpath写法为-classpath./xxxx1.jar,./xxxx2.jar,即两个路径之间用英文逗号(,)分隔。返回结果:OK 在ODPS SQL节点中查询输出表 wc_out 的数据。select*from wc_out;返回结果:+-+-+|key|cnt|+-+-+|package|...

管理自定义连接器

您可以通过以下任何一种方式上传自定义连接器JAR文件:上传文件:单击 选择文件 后,选择您的目标连接器JAR文件。外部URL:当需要使用其他服务上存在的JAR文件时,可以使用外部URL功能获取JAR文件。例如,...

访问MongoDB数据源

下载链接 mongo-spark-connector_2.12-10.1.1.jar、mongodb-driver-sync-4.8.2.jar、bson-4.8.2.jar、bson-record-codec-4.8.2.jar 和 mongodb-driver-core-4.8.2.jar。在pom.xml文件的dependencies中添加依赖项。groupId>org...
共有44条 < 1 2 3 4 ... 44 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
阿里邮箱 数字证书管理服务(原SSL证书) 商标服务 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用