表格存储(Tablestore)数据导入

本文介绍如何通过外表Tablestore数据导入至 云原生数据仓库AnalyticDB MySQL版 湖仓版(3.0)。前提条件 已创建Tablestore实例。具体操作,请参见 使用流程。已创建 AnalyticDB MySQL 湖仓版(3.0)集群。具体操作,请参见 创建湖仓版(3...

查询数据库账号

AnalyticDB MySQL兼容MySQL数据库,AnalyticDB MySQL中也有一个名为MySQL的内置数据库,该数据库中存储的是AnalyticDB MySQL中的用户与权限信息。您可以通过SELECT语句查询AnalyticDB MySQL中的用户信息。注意事项 AnalyticDB MySQL中,...

通过DataWorks导入数据

DataWorks提供了可视化的数据导入方式,相对于通过外表导入,DataWorks导入的方式更为轻量化,适合数据量相对较小的数据导入场景。本文介绍如何通过DataWorksRDS SQL Server数据导入至 AnalyticDB MySQL版 湖仓版(3.0)或 数仓版(3.0)...

通过Logstash写入数据到AnalyticDB MySQL 2.0

以日志数据为例,可以通过开源logstash output插件 logstash-output-jdbc log数据导入分析型数据库MySQL版中进行进一步分析(分析型数据库MySQL版支持原生JDBC方式访问)。但经过测试发现,在日志量非常大的情况下,通过jdbc方式写入分析...

通过Spark SQL读Lindorm数据

AnalyticDB MySQL 湖仓版(3.0)支持通过Spark SQL访问Lindorm数据库。本文主要介绍如何通过Spark SQL访问Lindorm中的Hive表和宽表的数据。前提条件 已创建Lindorm单可用区实例。具体操作,请参见 创建实例。重要 Lindorm实例需开通宽表...

通过DataWorks导入

HDFS是一个分布式文件系统,为您提供读取和写入HDFS双向通道的功能,本文为您介绍如何通过DataWorksHDFS数据导入至 AnalyticDB MySQL版 湖仓版(3.0)或 数仓版(3.0)。前提条件 已完成数据源配置。您需要在数据集成同步任务配置前,...

通过外表导入至数仓版

本文介绍如何通过外表查询OSS数据文件,并OSS中的数据文件导入 AnalyticDB MySQL 数仓版(3.0)。目前支持的OSS数据文件格式有Parquet、CSV和ORC。前提条件 已开通OSS服务并创建存储空间和项目。具体操作,请参见 开通OSS服务、控制台...

为什么HybridDB for MySQL 数据库刚创建时就有磁盘...

HybridDB for MySQL 数据库在初创时,会初始化一些系统文件,也会为表空间预分配一些空白磁盘页面,因此会使用一定的磁盘空间,这些磁盘空间在用户有真实数据写入时,会被重新利用起来。

写入与查询

AnalyticDB MySQL 支持OSS上经过GZIP压缩后的CSV文件做为外表数据源,需要compress_type外表定义加上compress_type=gzip。OSS外表语法,请参见 不带分区的数据文件创建OSS外表。是否支持INSERT ON DUPLICATE KEY?AnalyticDB MySQL 目前 只...

Microsoft SQL Server中的数据导入RDS时报错

概述 本文主要概述Microsoft SQL Server中数据导入阿里云RDS时报错的解决方法。问题描述 Microsoft SQL Server中的数据使用数据上云导入阿里云RDS时,出现如下错误。ErrorCode:ServiceUnavailable 问题原因 备份文件所在的OSS是A地域的...

通过DataWorks导入数据

本文为您介绍如何通过DataWorksKafka数据导入至 AnalyticDB MySQL版 湖仓版(3.0)或 数仓版(3.0)。前提条件 已购买合适规格的独享数据集成资源组。详情请参见:新增和使用独享数据集成资源组。已完成数据集成资源组与数据源的网络连通...

基本概念

物理库 物理库,是数据库在物理存储设备上的物理表示和存储方式,包括数据文件、日志文件、索引文件等。创建 AnalyticDB for MySQL 集群时,会自动创建一个物理库。每一个物理库被切分为若干个分片(Shard)。这些分片分布到若干个节点组...

数据变更最佳实践

例如,从RDS for MySQL、ECS自建MySQL数据导入 AnalyticDB MySQL版 时,推荐使用 INSERT INTO,详情请参见 通过外表导入至数仓版。说明 导入数据到 AnalyticDB MySQL版 时,导入任务使用 AnalyticDB MySQL版 中的资源,如果查询数据期间...

CREATE EXTERNAL TABLE

如果文件是.txt或.csv格式,请配置为 STORED AS TEXTFILE。PARQUET 格式的文件支持STRUCT数据类型,且支持嵌套。重要 仅3.1.8.0及以上内核版本的集群支持STRUCT数据类型的 PARQUET 格式文件。LOCATION 是 指定OSS文件或目录所在的路径。...

HybridDB for MySQL设计和实践优化建议

当用户在使用HybridDB for MySQL进行数据库设计和实践的过程中,我们有如下建议:分区键的选择 分区键是数据库控制数据分布的维度,以该条件进行等值查询,查询范围只会限制在一个存储分区上,通常选择查询最频繁的列,或数据分布最均匀的...

通过DataWorks导入数据

DataWorks提供了可视化的数据导入方式,相对于通过外表导入,DataWorks导入的方式更为轻量化,适合数据量相对较小的数据导入场景。本文介绍如何通过DataWorks PolarDB分布式版(原DRDS)的数据导入至 AnalyticDB MySQL版 湖仓版(3.0)或...

通过日志服务同步ECS日志数据到AnalyticDB MySQL 2.0

数据库名称 目标AnalyticDB for MySQL数据库的名字。表组名 目标AnalyticDB for MySQL中的表组。表名 目标AnalyticDB for MySQL中的表名,投递过来的日志数据存储在该表中。AccessKey ID 当前阿里云账号的AccessKey ID,请参见 获取阿里...

通过外表导入至湖仓版

AnalyticDB for MySQL 湖仓版(3.0)支持通过外表读取并导入外部数据导入数据时,您可以选择常规导入和弹性导入两种方式。弹性导入相较于常规导入,可以大幅减少资源的消耗,降低导入过程中对在线读写业务的影响。本文介绍如何通过外表...

数据库RDS MySQL版实例中实时查询慢日志slow_log的...

数据库RDS MySQL v5.5版实例不支持直接查询慢日志slow_log。您可以通过管理控制台查询慢日志,详情请参见 查看慢日志明细 中通过控制台查询慢日志的章节。详细信息 云数据库RDS MySQL版实例的版本不同,对应的查询方式不同,详情如下。...

通过MySQL分析实例同步至数仓版

您可以登录 AnalyticDB MySQL版 控制台,查看实例的运行状态以及RDS MySQL数据的同步状态。登录 云原生数据仓库AnalyticDB MySQL控制台。在页面左上角,选择集群所在地域。在左侧导航栏,单击 集群列表。在 数仓版(3.0)中,单击 集群类型...

产品优势

AnalyticDB MySQL版 提供融合数据库、大数据技术于一体的云原生企业级数据仓库服务,高度兼容MySQL,支持毫秒级更新,亚秒级查询。无论是数据湖中的非结构化或半结构化数据,还是数据库中的结构化数据,您都可使用 AnalyticDB MySQL 构建...

API概览

BindDBResourceGroupWithUser 资源组与数据库用户进行绑定 调用BindDBResourceGroupWithUser接口为AnalyticDB MySQL数仓版(3.0)集群的资源组绑定数据库账号。UnbindDBResourceGroupWithUser 解绑资源组和用户 调用...

到期或欠费的影响(2.0版)

按量付费数据库 阿里云账号欠费后,该账号下所有按量付费数据库将会变成欠费状态。欠费后的第1天,数据库正常运行、正常收费。欠费后的第2天,数据库处于锁定状态,无法被访问。欠费后第9天,数据库的计算资源被释放,数据不再保留。以上...

数据导入性能优化

单进程无法完全利用系统资源,且一般客户端需要处理数据、攒批等操作,难以跟上数据库导入速度,通过多并发导入可以加快导入速度。导入并发受攒批、数据源、客户端机器负载等影响,没有最合适的数值,建议通过测试逐步计算合适的并发能力...

如何优化数据导入导出

数据库实际应用场景中经常需要进行数据导入导出,本文介绍如何使用数据导入导出工具。测试环境 本文档的测试环境要求如下表:环境 参数 PolarDB-X 版本 polarx-kernel_5.4.11-16282307_xcluster-20210805 节点规格 16核64 GB 节点个数 4...

访问OSS数据

云原生数据仓库AnalyticDB MySQL版 数据库产品 编写Python程序,Python程序上传至OSS。本文示例的Python程序名为 example.py,用于读取文本文件readme.txt的第一行内容。import sys from pyspark.sql import SparkSession#初始Spark ...

通过Logstash导入数仓版

以日志数据为例,由于 AnalyticDB MySQL 支持原生JDBC方式访问,您可以通过开源logstash output插件 logstash-output-jdbc 日志数据导入 AnalyticDB MySQL 中进行进一步分析。但经过测试发现,在日志量非常大的情况下,通过JDBC方式...

导入/导出任务

数据库 提交导入或导出任务相关SQL的数据库用户名。任务状态 任务状态,取值说明:init:任务初始化。running:任务运行中。finish:任务执行成功。failed:任务执行失败。若任务执行失败,您可以在SQL诊断页面,通过任务ID查询该任务,并...

数据导入性能优化

单进程无法完全利用系统资源,且一般客户端需要处理数据、攒批等操作,难以跟上数据库导入速度,通过多并发导入可以加快导入速度。导入并发受攒批、数据源、客户端机器负载等影响,没有最合适的数值,建议通过测试逐步计算合适的并发能力...

其他SQL功能差异

AnalyticDB MySQL不支持的MySQL 5.6功能 数据库管理(Database Administration)插件和自定义函数(Plugin and User-Defined Function)SET 复合查询(Compound)数据备份(Replication)存储对象(Stored Objects)事务和锁定...

新功能发布记录

Spark应用访问公网配置说明 通过Spark SQL访问MySQL数据 湖仓版(3.0)支持通过Spark SQL访问自建MySQL数据库或阿里云MySQL系列的数据库。通过Spark SQL访问MySQL数据 通过Spark SQL读Lindorm数据 湖仓版(3.0)支持通过Spark SQL访问...

FineReport

如果您是第一次安装FineReport,需要安装MySQL服务器(例如阿里云RDS MySQL),用于导入FineReport的元数据,FineReport提供了两种数据链接方式:方式一:在数据决策系统中进行连接,请参见 JDBC连接数据库。方式二:在设计器中进行连接,...

从MaxCompute批量导入导出

HybridDB for MySQL支持直接从MaxCompute中导入和导出数据,这也是HybridDB for MySQL的特色功能之一。相比较借助D2、CDP、DTS等工具,HybridDB for MySQL直通导入和导出节省了大量的中间转换,导入导出的速度要快10倍以上。建议 导入导出...

BindDBResourcePoolWithUser-资源组与数据库用户...

调用BindDBResourcePoolWithUser接口资源组与数据库用户进行绑定。该接口仅适用于AnalyticDB MySQL弹性模式集群版(新版)。接口说明 注意事项 该接口仅适用于 32 核及以上规格的弹性模式集群版(新版)集群。默认资源组 USER_DEFAULT 不...

数据库权限模型

DB:数据库级别。TABLE:表级别。COLUMN:列(字段)级别。如果您希望某个用户只查询某一张表的某一列数据,可以该列的SELECT权限授予该用户,例如 GRANT select(customer_id)ON customer TO 'test321'。操作和权限关系 操作 需要的权限 ...

DBeaver

DBeaver支持MySQL、PostgreSQL、Oracle、DB2、MSSQL、Sybase以及其他兼容JDBC的数据库。您可以通过DBeaver的图形界面查看数据库结构、执行SQL查询和脚本、浏览和导出数据、处理BLOB/CLOB数据以及修改数据库结构等。准备工作 开始使用...

新建实例

HybridDB for MySQL数据库初始化需要一定时间,一般不超过20分钟,待管理控制台首页上实例运行状态显示为 运行中,即可进行后续操作。补充 如果新建实例长时间处于 创建中,一般是由于后端资源不足导致的,请您更换其他可用区尝试购买。

导出至OSS

将数据导出到OSS功能只支持CSV和Parquet格式文件。前提条件 在 对象存储 OSS中创建存储 AnalyticDB MySQL版 数据的目录:开通OSS服务。说明 OSS与 AnalyticDB MySQL版 数仓版(3.0)集群所属地域相同。控制台创建存储空间。在OSS中新建目录...

创建实例

HybridDB for MySQL数据库初始化需要一定时间,一般不超过20分钟,待管理控制台首页上实例运行状态显示为 运行中,即可进行后续操作。补充 如果新建实例长时间处于 创建中,一般是由于后端资源不足导致的,请您更换其他可用区尝试购买。

访问Kafka数据

本文介绍如何使用 AnalyticDB MySQL 湖仓版(3.0)Spark通过ENI网络访问消息队列Kafka版。前提条件 已创建 AnalyticDB MySQL 湖仓版(3.0)集群。具体操作,请参见 创建湖仓版(3.0)集群。已创建Job型资源组。具体操作,请参见 新建资源组...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
文件存储 CPFS 云原生数据仓库AnalyticDB MySQL版 云数据库 RDS 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用