API概览

我们已经为开发者封装了常见编程语言的SDK,开发者可通过 下载SDK 直接调用本产品OpenAPI而无需关心技术细节。如果现有SDK不能满足使用需求,可通过签名机制进行自签名对接。由于自签名细节非常复杂,需花费 5工作日左右。因此建议加入...

sample-txc-dubbo 样例

GTS 从 2.8.18 版本开始支持 Dubbo。您无需再关心全局事务上下文 XID 在服务调用链路上的传播,进一步简化了编程模型。前提条件 在使用样例前,请先完成以下工作:准备两 RDS 实例,用户创建数据库。准备一个 ECS 实例,用于部署本样例。...

数据库常见问题

Navicat for MySQL:用于管理和开发MySQL的理想解决方案,是一套单一的应用程序,您可以使用Navicat for MySQL导入导出MySQL数据库数据。具体操作,请参见 通过Navicat for MySQL导入SQL文件 和 通过Navicat for MySQL导出数据库表中的数据...

2020年

本文为您介绍了MaxCompute 2020年内容更新的最新动态,基于此您可以了解MaxCompute中增加了哪些新功能、语法新特性权限变更,提升项目开发效率。2020年12月更新记录 时间 特性 类别 描述 产品文档 2020-12-28 新增Streaming Tunnel服务。...

通过Spark SQL读写OSS外表

本文以OSS Parquet格式为例介绍如何通过Spark SQL读写OSS外表。前提条件 已创建 湖仓版(3.0)集群。详情请参见 创建湖仓版集群。已创建Job型资源组。详情请参见 新建资源组。已创建数据库普通账号,并将RAM用户(子账号)绑定到 ...

新建函数

概述 函数是在数据库内定义的子程序,可以从内置 SQL 语句中调用函数。如果自带的函数不能满足业务需求,则可以通过 ODC 新建函数,添加自定义函数,以实现某些功能运算完成各种特定操作,且自定义函数可以减少重复编码,提高程序可读性...

Amazon Redshift数据源

INTEGER SQL_INTEGER 整数 OID SQL_BIGINT 长整型 SUPER SQL_LONGVARCHAR 字符串 REAL SQL_REAL Float SMALLINT SQL_SMALLINT 短型 TEXT SQL_VARCHAR 字符串 TIME SQL_TYPE_TIME java.sql.Time TIMETZ SQL_TYPE_TIME java.sql.Time ...

高级应用:扩展程序参数配置

开发扩展程序代码时,DataWorks为您提供了内置参数,同时也支持您自定义参数,以提高扩展程序代码开发效率效果,例如,结合参数实现扩展程序仅对指定工作空间生效。本文为您介绍如何使用扩展程序的参数。背景信息 使用扩展程序参数进行...

概述

除此之外,数据工程师、算法工程师和开发工程师的人力成本也是当前数据驱动的智能决策应用难以大规模落地的一个阻碍。事实上,鉴于数据库研究在数据发现、数据管理、版本控制、数据清理和数据集成方面积累的专业知识,PolarDB for AI 可以...

功能发布记录(2023年)

2023.12.22 华北2(北京)华东1(杭州)华东2(上海)华北3(张家口)华南1(深圳)西南1(成都)美国(硅谷)美国(弗吉尼亚)德国(法兰克福)日本(东京)中国(香港)新加坡地域 所有DataWorks用户 扩展程序概述 OpenEvent概述 附录:...

开发ODPS Spark任务

MaxCompute Spark作业可通过 Local模式、Cluster模式 执行,此外,您也可在DataWorks中运行MaxCompute Spark离线作业(Cluster模式),以便与其它类型执行节点集成调度。本文为您介绍如何通过DataWorks实现MaxCompute Spark作业的配置与...

文档修订记录

扩展程序概述 OpenEvent概述 附录:消息格式 2023年11月更新记录 时间 特性 类别 描述 产品文档 2023.11.29 新增功能 数据服务 独享服务资源组开通以下地域:华北3(张家口)、中国(香港)新加坡,及对应地域资源组的规格计费标准。...

通过Spark SQL访问MySQL数据

AnalyticDB MySQL 湖仓版(3.0)支持提交Spark SQL作业,您可以通过View或Catalog两种方式访问自建MySQL数据库或云数据库RDS MySQL、云原生数据库 PolarDB MySQL。本文以RDS MySQL为例,介绍如何通过Spark SQL访问RDS MySQL数据。前提条件 ...

2023年

MaxCompute JSON类型使用指南(试用Beta版本)2023-06-26 新增增量查询 新说明 Transactional Table 2.0支持增量写入存储,最重要的一个考虑就是支持增量查询以及增量计算优化,为此,专门设计开发了新的SQL增量查询语法来支持近实时增量...

在EMR集群运行TPC-DS Benchmark

TPC-DS是大数据领域最为知名的Benchmark标准。...cp$MAVEN_HOME/conf/settings.xml~/.m2/在~/.m2/settings.xml文件中添加镜像信息,具体内容如下:<mirror><id>aliyun</id><mirrorOf>central</mirrorOf><name>Nexus aliyun</name><url>...

通过MyBatis使用

目前支持使用SQL查询功能的地域有华东1(杭州)、华东2(上海)、华北2(北京)、华北3(张家口)、华北5(呼和浩特)、华北6(乌兰察布)、华南1(深圳)、西南1(成都)、中国香港、新加坡、印度尼西亚(雅加达)、印度(孟买)、德国...

Java程序如何连接RDS MySQL

概述 本文主要介绍Java程序如何连接RDS MySQL。详细信息 阿里云提醒您:如果您对实例或数据有修改、变更等风险操作,务必注意实例的容灾、容错能力,确保数据安全。如果您对实例(包括但不限于ECS、RDS)等进行配置与数据修改,建议提前...

通过EMR运行基于OSS-HDFS服务的TPC-DS Benchmark

本文介绍如何在EMR集群环境下,充分利用OSS-HDFS服务的优势,成功执行TPC-DS Benchmark的99个SQL查询,并通过系列优化策略实现更优的性能体验。使用场景 大数据性能评估 当您希望评估使用OSS-HDFS服务作为Hadoop数据存储时的大数据处理...

Table/SQL JAR迁移至SQL

本文为您介绍如何将Table/SQL JAR作业迁移至Flink全托管的SQL作业中。背景信息 本文将使用开源JDBC Connector写阿里云RDS的方式进行Table/SQL JAR迁移至SQL,因此需要额外配置附加依赖文件选项。实时计算Flink全托管版集群内置了商业化的...

大数据AI公共数据集分析

操作难度 低 所需时间 30分钟 使用的阿里云产品 DataWorks:站式大数据开发与治理平台,绑定计算引擎后可在DataWorks上开发调度对应引擎的分数据开发治理任务。MaxCompute:适用于数据分析场景的企业级SaaS模式云数据仓库,为海量数据...

通过Spark SQL读写C-Store表数据

AnalyticDB MySQL 湖仓版(3.0)集群支持通过Spark SQL在线或离线读写C-Store表数据。本文主要介绍通过Spark SQL在线或离线读写C-Store表数据的具体方法。前提条件 湖仓版(3.0)集群的存储预留资源需大于0 ACU。详情请参见 创建湖仓版集群...

创建MaxCompute数据源

数据源创建完成后,您可根据需要执行如下操作:计算任务开发与调度:DataWorks的数据开发与运维中心模块,为您提供MaxCompute任务的开发与调度能力,若您需要基于该MaxCompute数据源进行MaxCompute任务开发,或周期性调度MaxCompute相关...

通过脚本模式生成API

数据服务支持通过脚本模式或向导模式生成API,相对于向导模式,您可以自行编写API的查询SQL,支持多表关联、复杂查询聚合函数等功能,满足您个性化查询需求。本文为您介绍如何通过脚本模式生成API。前提条件 配置API前,请先在 工作空间...

金蝶K/3 WISE接入阿里云RDS SQL Server

本文介绍如何将ECS实例上的金蝶K/3 WISE 15.0/15.1的账套数据恢复到RDS SQL Server上,并在ECS实例RDS实例中进行分布式事务设置,以此实现事务的一致性隔离性。操作流程 恢复账套数据到RDS:将本地金蝶K/3 WISE账套数据库的全量数据...

开发ODPS MR任务

背景信息 MapReduce是一个分布式运算程序的编程框架,核心功能是将用户编写的业务逻辑代码自带默认组件整合成一个完整的分布式运算程序,并发运行在一个Hadoop集群上。MaxCompute提供两版本的MapReduce编程接口:详情请参见 MapReduce...

HTTP API SQL接口开发手册

对于Java语言的应用开发,建议基于Java JDBC Driver构建时序引擎的应用程序,具体请参见 Java JDBC Driver开发手册。说明 单机版不支持此功能。请求路径与方法 请求路径 请求方法 描述/api/v2/sql POST 发送并执行SQL语句。请求内容 请求...

功能特性

SQL窗口介绍 SQL Console初体验 SQL Console新交互模式下变更表数据结构 数据工作站 数据集成 离线集成是种低代码开发数据加工任务的工具,可以组合各类任务节点形成数据流,通过周期调度运行达到数据加工、数据同步的目的。...

管理中心功能概览

在DataWorks的 管理中心,用户可以按照 工作空间维度 进行操作,包括配置工作空间的基本设施、选择合适的计算引擎、接入不同的数据源、注册开源集群、配置扩展程序,以及管理工作空间成员的权限角色;此外,用户还可以在 全局维度 进行...

使用前须知

同步到中心 针对SLB、ALB、OSS、PolarDB-X 1.0、VPCDNS的区域化存储,支持将各个地域的Logstore同步到一个中心化的Logstore中,以便做中心化查询、分析、告警、可视化、开发等。同步机制依赖日志服务数据加工。资源限制 中心主账号下...

最佳实践:SQL组件

步骤:使用组件 您需参考 引用SQL组件 创建 xc_引用组件_get_top_n SQL组件节点,引用步骤创建的 get_top_n 组件,并配置相应的参数值,步骤如下图。参数值说明如下:输入参数 myinputtable:为该参数指定一个输入表 company_sales_...

新功能发布记录

本文介绍了云数据库RDS SQL Server的产品功能对应的文档动态。说明 RDS SQL Server内核版本更新说明,请参见 RDS SQL Server小版本Release Notes。2024年 4月 类别 功能名称 功能描述 发布时间 相关文档 新增 错误日志清理 RDS SQL ...

通过SQL模式创建API(Dataphin表)

SQL模式是基于Dataphin逻辑表,编写SQL语句创建API。本文为您介绍如何使用SQL模式生成API。前提条件 MaxCompute计算引擎支持逻辑表创建API,需完成以下步骤:基于逻辑表生成API的场景中,需要完成逻辑表(维度逻辑表、事实逻辑表汇总逻辑...

开发PyODPS 2任务

DataWorks提供PyODPS 2节点类型,您可以在DataWorks上通过PyODPS语法进行PyODPS任务开发,PyODPS集成了MaxCompute的Python SDK。支持您在DataWorks的PyODPS 2节点上直接编辑Python代码,操作MaxCompute。前提条件 已创建PyODPS 2节点,详情...

UDF开发(Python3)

在您使用Python 3之前,需要考虑兼容性问题,在一个SQL中不允许同时使用Python 3Python 2。说明 Python官方已于2020年初停止维护,建议您根据项目类型执行迁移操作:全新项目:新MaxCompute停止维护Python 2,UDF开发:通用流程 开发UDF...

如何优化数据导入导出

SQL语句格式合适的导入数据方式:方法:souce语句导入数据 source/home/dump_1000w.sql 方法:mysql命令导入数据 mysql-h ip-P port-u usr-pPassword-default-character-set=utf8mb4 db_name< /home/dump_1000w.sql Batch Tool工具使用...

通过SQL模式创建API(服务单元)

SQL模式是基于服务单元,编写SQL语句创建API。本文为您介绍如何使用SQL模式生成API。前提条件 基于服务单元生成API,需先完成服务单元的创建。具体操作,请参见 创建服务单元。使用限制 支持服务项目管理员和开发用户角色的账号生成API。...

注册EMR集群至DataWorks

DataWorks支持基于EMR(E-MapReduce)计算引擎创建Hive、MR、PrestoSpark SQL等节点,实现EMR任务工作流的配置、周期性调度元数据管理等功能,保障数据生产及管理的高效稳定。本文为您介绍如何在DataWorks注册同账号或跨账号的EMR集群...

新建存储过程

概述 存储过程是条或多条语句的集合,对数据库进行系列复杂操作时,存储过程可以在数据库内将这类复杂操作封装成一个代码块,以便重复使用,从而减少数据库开发人员的工作量。存储过程旨在完成特定功能的 SQL 语句集,经编译创建并保存...

基于ODBC的应用开发

本文介绍C/C++语言如何通过MySQL的ODBC驱动进行应用程序开发。前提条件 已开通MySQL协议兼容功能。如何开通,请参见 开通MySQL协议兼容功能。已将客户端IP添加至白名单,具体操作请参见 设置白名单。操作步骤 下载并安装MySQL ODBC驱动。...

开发PyODPS 3任务

import os.#get DataWorks sheduler runtime parameters skynet_hints={} for k,v in os.environ.items():if k.startswith('SKYNET_'):skynet_hints[k]=v.#setting hints while submiting a task o.execute_sql('INSERT OVERWRITE TABLE ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生数据仓库AnalyticDB MySQL版 实时计算 Flink版 云备份 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用