自定义RDBMS数据库及同步数据

为了满足不同业务场景数据集成的诉求,Dataphin支持用户自定义当前系统不支持的RDBMS数据库(关系型数据库)类型的组件,并进行数据同步。您只需要准备关系型数据库的驱动,即可自定义RDBMS数据库类型的组件。本教程以MySQL为例,为您介绍...

自定义RDBMS数据库及同步数据

为了满足不同业务场景数据集成的诉求,Dataphin支持用户自定义当前系统不支持的RDBMS数据库(关系型数据库)类型的组件,并进行数据同步。您只需要准备关系型数据库的驱动,即可自定义RDBMS数据库类型的组件。本教程以MySQL为例,为您介绍...

新建存储过程

概述 存储过程是一条或多条语句的集合,对数据库进行一系列复杂操作时,存储过程可以在数据库内将这类复杂操作封装成一个代码块,以便重复使用,从而减少数据库开发人员的工作量。存储过程旨在完成特定功能的 SQL 语句集,经编译创建并保存...

创建同步任务

本文为您介绍如何通过创建同步任务,导出MaxCompute中的数据至MySQL数据源中。前提条件 已通过RDS创建MySQL实例,获取RDS实例ID,并在RDS控制台添加白名单。详情请参见 快速创建RDS MySQL实例 和 添加白名单。说明 如果是通过自定义资源组...

从 MySQL 到 TSDB 的数据迁移

本文主要介绍如何使用阿里巴巴的开源工具Datax 实现从 MySQL 到 TSDB 的数据迁移。背景 本文主要介绍如何使用阿里巴巴的开源工具Datax 实现从 MySQL 到 TSDB 的数据迁移。DataX相关使用介绍请参阅 DataX 的 README 文档。下面将首先介绍 ...

EMR Hive数据整库离线同步至MaxCompute

背景信息 Hive是基于Hadoop的一个数据仓库工具,用来进行数据的提取、转化、加载,可以存储、查询和分析存储在Hadoop中的大规模数据。Hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成...

EMR Hive数据整库离线同步至MaxCompute

背景信息 Hive是基于Hadoop的一个数据仓库工具,用来进行数据的提取、转化、加载,可以存储、查询和分析存储在Hadoop中的大规模数据。Hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成...

创建Oracle数据订阅通道

通过数据订阅功能,您可以实时订阅源库的增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文为您介绍如何创建Oracle数据订阅通道。前提条件 自建Oracle数据库的版本为9i、10g、11g版本,且不...

TPC-DS性能测试说明

下载starrocks-benchmark测试工具包并解压 您需要登录步骤1中创建的ECS实例,在节点上执行如下命令下载测试工具包。sudo wget ...

UDAF概述

如果您的UDF涉及访问VPC网络中的资源时,需要先创建MaxCompute与目标VPC网络间的网络连接,才可以直接通过UDF访问VPC网络中的资源,操作详情请参见 通过UDF访问VPC网络资源。读取表数据 目前版本不支持使用UDF/UDAF/UDTF读取以下场景的表...

DataStudio侧实时同步任务配置

完成数据源、网络、资源的准备配置后,您可创建实时同步节点,将多种输入及输出数据源搭配组成同步链路,进行单表或整库数据的实时增量同步。本文为您介绍如何创建单表或整库增量数据实时同步任务,并在创建完成后查看任务运行情况。前提...

通过DataX导入Prometheus数据

本文介绍如何使用阿里巴巴的开源工具Datax实现从Prometheus到TSDB的数据迁移。背景 DataX相关使用介绍请参阅DataX的 README。迁移操作涉及到的两个插件(Prometheus Reader 和 TSDB Writer)。DataX DataX 是阿里巴巴集团内被广泛使用的离...

Druid 连接池连接 OceanBase 数据库示例程序

本文将介绍如何使用 Druid 连接池、MySQL Connector/J 和 OceanBase 数据库构建一个应用程序,实现基本的数据库操作,包括创建表、插入数据、更新数据、删除数据、查询数据和删除表等。点击下载 druid-mysql-client 示例工程 前提条件 您已...

基于Delta lake的一站式数据湖构建与分析实战

数据湖作为一个集中化的数据存储仓库,支持的数据类型具有多样性,包括结构化、半结构化以及非结构化的数据数据来源上包含数据数据、binglog 增量数据、日志数据以及已有数仓上的存量数据等。数据湖能够将这些不同来源、不同格式的数据...

使用HBase Shell访问

本文介绍如何通过HBase Shell工具访问云数据库HBase标准版。前提条件 通过内网连接时,请确认已购买与HBase标准版在相同专有网络VPC的ECS服务器,并将ECS服务器的IP地址在HBase中添加为白名单。若未购买ECS服务器,具体操作请参见 如何创建...

创建RDS MySQL数据订阅通道

通过数据订阅功能,您可以实时订阅源库的增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文将介绍如何创建RDS MySQL数据订阅通道。注意事项 由于使用gh-ost或pt-online-schema-change等类似...

MaxCompute UDF概述

如果您的UDF涉及访问VPC网络中的资源时,需要先创建MaxCompute与目标VPC网络间的网络连接,才可以直接通过UDF访问VPC网络中的资源,操作详情请参见 通过UDF访问VPC网络资源。读取表数据 目前版本不支持使用UDF/UDAF/UDTF读取以下场景的表...

准备工作:获取CDH或CDP集群信息并配置网络连通

DataWorks提供了与CDH(Cloudera’s Distribution Including Apache Hadoop,以下简称CDH)和CDP(Cloudera Data Platform,以下简称CDP)集群对接的能力,您可在DataWorks中注册CDH及CDP集群,进行任务开发、调度、数据地图(元数据管理)...

使用HBaseue Shell访问增强版集群

本文介绍如何通过HBaseue Shell工具访问云数据库HBase增强版。前提条件 通过内网连接时,请确认已购买与HBase增强版在相同专有网络VPC的ECS服务器,并把ECS服务器的IP地址在HBase中添加为白名单。若未购买ECS服务器,具体操作请参见 如何...

采集数据

本教程以MySQL中的用户基本信息(ods_user_info_d)表及OSS中的网站访问日志数据(user_log.txt)文件,通过数据集成离线同步任务分别同步至MaxCompute的ods_user_info_d、ods_raw_log_d表为例,为您介绍如何通过DataWorks数据集成实现异构...

采集数据

本教程以MySQL中的用户基本信息(ods_user_info_d)表及OSS中的网站访问日志数据(user_log.txt)文件,通过数据集成离线同步任务分别同步至MaxCompute的ods_user_info_d、ods_raw_log_d表为例,为您介绍如何通过DataWorks数据集成实现异构...

通过Mongo Shell连接MongoDB副本集实例

Mongo Shell是MongoDB自带的数据库管理工具,您可以下载Mongo Shell工具并安装至客户端(本地服务器或ECS服务器),用于连接云数据库MongoDB副本集实例。前提条件 已创建云数据库MongoDB副本集实例,创建方法请参见 创建副本集实例。背景...

RDS MySQL物理备份文件恢复到自建数据库

本文介绍如何使用Percona XtraBackup工具,将RDS MySQL的物理备份文件恢复到自建数据库。背景 RDS MySQL支持将实例备份文件恢复到自建数据库,当前支持物理备份文件恢复、逻辑备份文件恢复等多种方式。如何选择数据恢复方案,请参见 数据...

创建PolarDB MySQL版数据订阅通道

通过数据订阅功能,您可以实时订阅增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文介绍如何创建 PolarDB MySQL版 数据订阅通道。前提条件 PolarDB MySQL版 集群已开启Binlog功能,详情请...

SQL Server迁移上云指南

本文为您介绍SQL Server常见的几种迁移上云的方案,您可以根据数据源的位置、各方案使用的工具、各方案的优势与限制等,选择最适合您的上云方案。上云方案简介 上云方案 实现流程 操作步骤 物理备份上云 使用OSS(手动上云)将数据库日志...

UDF开发(Python3)

如果您的UDF涉及访问VPC网络中的资源时,需要先创建MaxCompute与目标VPC网络间的网络连接,才可以直接通过UDF访问VPC网络中的资源,操作详情请参见 通过UDF访问VPC网络资源。读取表数据 目前版本不支持使用UDF/UDAF/UDTF读取以下场景的表...

HikariCP 连接池连接 OceanBase 数据库示例程序

本文将介绍如何使用 HikariCP 连接池、MySQL Connector/J 和 OceanBase 数据库构建一个应用程序,实现基本的数据库操作,包括创建表、插入、删除、更新和查询数据等。点击下载 hikaricp-mysql-client 示例工程 前提条件 您已安装 OceanBase...

对接使用CDH与CDP

数据地图配置 在DataWorks上使用CDH引擎时,可使用DataWorks的数据地图服务采集CDH集群中Hive数据库、表、字段、分区元数据,便于实现全局数据检索、元数据详情查看、数据预览、数据血缘和数据类目管理等功能。说明 当前仅支持Hive数据库。...

UDF开发(Java)

当MaxCompute提供的内建函数无法支撑您的业务实现时,您可以根据本文提供的开发流程,使用开发工具(例如IntelliJ IDEA(Maven)或 MaxCompute Studio)自行编写代码逻辑创建自定义函数(UDF),并在MaxCompute中进行调用,以满足多样化...

PolarDB PostgreSQL版间的迁移

通过数据传输服务DTS(Data Transmission Service),可以实现 PolarDB PostgreSQL版 集群间的迁移。前提条件 已创建源和目标 PolarDB PostgreSQL版 数据库集群,详情请参见 创建PolarDB PostgreSQL版数据库集群。已将源和目标 PolarDB ...

GORM 连接 OceanBase 数据库示例程序

本文将介绍如何使用 GORM 和 OceanBase 数据库构建一个应用程序,实现创建表、插入数据和查询数据等基本操作。点击下载 gorm-oceanbase 示例工程 前提条件 安装 OceanBase 数据库、Go 语言和相关驱动,并确保已经正确配置了环境变量。说明 ...

将自建ClickHouse数据迁移到云ClickHouse中

当您计划将自建数据库ClickHouse迁移到云数据库ClickHouse提升业务的可扩展性和可靠性时,本文档将为您提供实际操作指南以及如何处理可能遇到的问题。参考本文档迁移策略,您将能够高效、安全地完成数据迁移,并最大化云端环境的利益。说明...

列存索引TPC-H测试

步骤5:数据准备 在BenchmarkBoot的 运行压测>数据库连接>配置数据库连接 界面中,配置 PolarDB-X 连接串(主机ip、端口、用户名、密码),输入TPC-H库名、建库模式选择 AUTO,单击 提交。在BenchmarkBoot的 运行压测>TPCH>导入TPCH 界面中...

通过Kafka写入数据

共支持以下两种写入方式:通过开源Kafka客户端写入Lindorm流引擎数据 通过开源Kafka脚本工具连接Lindorm流引擎 以通过开源Kafka脚本工具写入数据为例。创建Topic./kafka-topics.sh-bootstrap-server地址>-topic log_topic-create#写入数据....

Commons Pool 连接 OceanBase 数据库示例程序

本文将介绍如何使用 Commons Pool、MySQL Connector/J 和 OceanBase 数据库构建一个应用程序,实现基本的数据库操作,包括创建表、插入数据、更新数据、删除数据、查询数据和删除表等。点击下载 commonpool-mysql-client 示例工程 前提条件...

请求结构和签名机制

步骤四:异常捕获及重试 由于网络、传参等问题,可能会出现请求异常的情况,需要做好异常捕获和重试。为什么要对请求进行签名 对HTTP请求进行签名是为了保护云服务免受恶意请求的攻击以及提前拦截无效请求。签名是通过在请求中添加一些特殊...

轨迹生成

步骤二:写入流数据 Lindorm流引擎完全兼容开源Kafka API,您可以通过Kafka开源客户端或脚本工具连接Lindorm流引擎并写入测试数据。以通过开源Kafka脚本工具写入数据为例。下载并安装Kafka脚本工具。具体操作,请参见 通过开源Kafka脚本...

新增和使用独享调度资源组

说明 DataWorks工作空间和数据源不在同一地域或不在同一个阿里云主账号下,您还需通过 VPN网关 或 高速通道 等方式,将独享资源组绑定的VPC与数据源所在VPC网络打通,并手动添加路由指向目标数据库IP,保障两个网络间可达。详情请参见 配置...

Java UDAF

UDAF代码结构 您可以通过IntelliJ IDEA(Maven)或 MaxCompute Studio 工具使用Java语言编写UDAF代码,代码中需要包含如下信息:Java(Package):可选。您可以将定义的Java类打包,为后续查找和使用类提供方便。继承UDAF类:必选。必须...

客户端连接

云原生数据仓库AnalyticDB PostgreSQL版 完全兼容PostgreSQL消息协议,可以直接使用支持PostgreSQL消息协议的工具进行管理和开发。背景信息 云原生数据仓库AnalyticDB PostgreSQL版 完全兼容PostgreSQL消息协议,您可以直接使用支持...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 数据库备份 DBS 云数据库 Redis 版 共享流量包 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用