绑定或解绑数据库账号

AnalyticDB for MySQL 湖仓版(3.0)集群支持将不同的数据库账号绑定到不同的资源组,实现不同数据库账号查询的资源...如果需要解绑数据库账号,单击 绑定用户 列表中目标用户右侧的 解除绑定,然后在弹出的确认解除绑定对话框中单击 确定。

数据管理

数据库列表 展示了 所属库、表名、表类型、存储大小、描述、创建时间 和 更新时间,且支持根据 表名、存储大小、创建时间 或 更新时间 进行排序。单击目标 表名,还支持查看表的详细信息。序号 区域 说明 ① 表信息 展示了 所属库、表名...

自定义Spark镜像

当 AnalyticDB for MySQL Spark默认镜像无法满足您的需求时,您可以基于默认镜像,将Spark作业需要的软件包和依赖项打包到镜像中,生成自定义镜像并发布到容器镜像服务。在 AnalyticDB for MySQL 进行Spark作业开发时,指定自定义镜像作为...

API概览

BindDBResourceGroupWithUser 将资源组与数据库用户进行绑定 调用BindDBResourceGroupWithUser接口为AnalyticDB MySQL数仓版(3.0)集群的资源组绑定数据库账号。UnbindDBResourceGroupWithUser 解绑资源组和用户 调用...

准备工作

您可以在AnalyticDB MySQL中进行完整的TPC-DS基准测试,了解AnalyticDB MySQL的分析性能。说明 本文的TPC-DS的实现基于TPC-DS的基准测试,并不能与已发布的TPC-DS基准测试结果相比较,本文中的测试并不符合TPC-DS基准测试的所有要求。在云...

数据资产管理

说明 若首次通过DMS(新版)登录 AnalyticDB MySQL版 集群数据库来使用数据资产管理功能,您需要先完成数据库登录信息录入,登录数据库方法,请参见 登录数据库。若之前已登录过 AnalyticDB MySQL版 集群数据库且集群管控模式为 自由操作 ...

通过日志服务同步ECS日志数据到AnalyticDB MySQL 2.0

数据库名称 目标AnalyticDB for MySQL数据库的名字。表组名 目标AnalyticDB for MySQL中的表组。表名 目标AnalyticDB for MySQL中的表名,投递过来的日志数据将存储在该表中。AccessKey ID 当前阿里云账号的AccessKey ID,请参见 获取阿里...

Spark应用性能诊断

AnalyticDB for MySQL 湖仓版(3.0)推出Spark应用诊断功能,若您提交的Spark应用存在性能问题,您可以根据诊断信息快速定位和分析性能瓶颈问题,优化Spark应用,提高问题解决效率。本文主要介绍如何进行Spark应用性能诊断以及性能诊断的...

其他SQL功能差异

AnalyticDB MySQL不支持的MySQL 5.6功能 数据库管理(Database Administration)插件和自定义函数(Plugin and User-Defined Function)SET 复合查询(Compound)数据备份(Replication)存储对象(Stored Objects)事务和锁定...

Spark开发编辑器

功能说明 通过Spark开发编辑器创建和执行Spark离线应用或流应用。查看当前Spark应用Driver的日志和应用提交时的相关信息。查看SQL语句的执行日志。前提条件 已创建 AnalyticDB MySQL 湖仓版(3.0)集群,详情请参见 创建集群。已创建Job型...

访问MongoDB数据

本文介绍如何使用 AnalyticDB MySQL版 湖仓版(3.0)Spark访问云数据库MongoDB数据。前提条件 已创建AnalyticDB MySQL湖仓版(3.0)集群。具体操作,请参见 创建湖仓版(3.0)集群。已创建数据库账号。如果您是通过阿里云账号访问,只需...

通过Spark SQL读写Hudi外表

创建外表时选择的OSS路径需比创建数据库时选择的OSS路径至少多一层目录,且外表的路径需在数据库路径下。建表时必须定义primaryKey主键。preCombineField预聚合字段为可选,如未定义preCombineField在UPDATE场景会报错。步骤三:写入Hudi...

工作负载管理介绍

AnalyticDB MySQL 集群在数据库系统中提供了工作负载管理模块,通过工作负载管对工作负载的控制,可以提高集群的整体运行状态,满足集群更精细化控制的目的。前提条件 AnalyticDB MySQL 集群需要同时满足以下条件:集群系列需为数仓版(3.0...

聚合支付方案

解决方案 阿里云通过多款云数据库产品为利楚扫呗制定以下解决方案:方案解读:使用DRDS分库分表将数据库进行水平拆分,有效解决订单的存储上限及业务高峰时的高并发压力,借助了DRDS对MySQL语法的高度兼容能力,轻松从原来单体数据库升级到...

使用XIHE BSP SQL进行作业开发

本文介绍如何使用XIHE BSP SQL进行外表作业开发。前提条件 已创建 AnalyticDB MySQL 湖仓版(3.0)集群。详情请参见 创建湖仓版集群。已创建Job型资源组。详情请参见 创建资源组。已开通OSS服务并创建存储空间和项目。具体操作,请参见 ...

AnalyticDB MySQL 是分布式数据库,数据需要根据分布字段均匀地分布在各个后台节点才能保证尽可能高的利用资源。分布字段选择不合理,会导致写入时存在热点,降低写入性能。分区字段合理性。AnalyticDB MySQL 后台以分区为粒度进行数据存储...

自动续费(2.0版)

续费是指延长包年包月集群的使用时间,续费的费用和新购集群费用相同。...云原生数据仓库...在 续费管理 页面,单击 自动续费 页签,找到目标数据库,单击右侧的 修改自动续费。在 修改自动续费 页面,设置自动续费时长,然后单击 确定。

通过Spark SQL读写OSS外表

创建外表时选择的OSS路径需比创建数据库时选择的OSS路径至少多一层目录,且外表的路径需在数据库路径下。可以在tblproperties中配置 'auto.create.location'='true' 自动创建OSS路径。如果未指定该参数并且OSS中不存在该路径,请先创建对应...

从OSS批量导入导出

这一步是要确定HybridDB for MySQL数据导出到OSS后要存储到哪个存储目录下,HybridDB for MySQL的导出会根据并发度来动态地确定要导出到指定存储目录下的数据文件数目。在HybridDB for MySQL中建立一张外表映射到MySQL的数据表。这一步的...

转换计费方式

按量付费的 云原生数据仓库AnalyticDB MySQL版 3.0 集群可以转为包年包月集群。本文介绍按量付费转包年包月的操作说明。背景信息 按量付费变更为包年包月,需要支付包年包月费用,请确保余额充足。操作步骤 登录 云原生数据仓库AnalyticDB ...

访问OSS数据

云原生数据仓库AnalyticDB MySQL版 数据库产品 编写Python程序,将Python程序上传至OSS。本文示例的Python程序名为 example.py,用于读取文本文件readme.txt的第一行内容。import sys from pyspark.sql import SparkSession#初始Spark ...

通过Spark SQL读写Delta外表

如果已有数据库,可跳过本步骤。CREATE DATABASE if not exists external_delta_db location"oss:/<bucket_name>/test/;用于在该路径中创建表,请替换为自己的OSS路径。执行以下语句,创建Delta外表。CREATE TABLE if not exists external_...

使用Spark SQL进行作业开发

本文介绍如何使用Spark SQL进行外表作业开发。前提条件 已创建 AnalyticDB MySQL 湖仓版(3.0)集群。详情请参见 创建湖仓版集群。已创建Job型资源组。详情请参见 创建资源组。已开通OSS服务并创建存储空间和项目。具体操作,请参见 开通...

根据标签筛选集群

操作步骤 登录 云原生数据仓库AnalyticDB MySQL控制台。在页面左上角,选择集群所在地域。在左侧导航栏,单击 集群列表。单击 标签,选择标签的 标签键 和 标签值 筛选集群。说明 按标签筛选集群后,如果您需要取消筛选,可以 清除 筛选...

数据库RDS MySQL版实例中实时查询慢日志slow_log的...

概述 本文主要介绍在使用云数据库RDS MySQL版实例时,实时查询慢日志slow_log的方法。用户告知 本文仅阐述实时查询slow_log的方法,文中的操作示例未通过where语句进行条件过滤,因此属于全表查询。建议您在操作时,通过where语句增加条件...

HybridDB for MySQL设计和实践优化建议

当用户在使用HybridDB for MySQL进行数据库设计和实践的过程中,我们有如下建议:分区键的选择 分区键是数据库控制数据分布的维度,以该条件进行等值查询,查询范围只会限制在一个存储分区上,通常选择查询最频繁的列,或数据分布最均匀的...

数据库权限模型

DB:数据库级别。TABLE:表级别。COLUMN:列(字段)级别。如果您希望某个用户只查询某一张表的某一列数据,可以将该列的SELECT权限授予该用户,例如 GRANT select(customer_id)ON customer TO 'test321'。操作和权限关系 操作 需要的权限 ...

配置同步任务中的数据来源和去向

成功将数据导入分析型数据库MySQL版后,您就可以使用分析型数据库MySQL版进行数据分析。进入 DataWorks控制台,单击对应项目操作栏中的 数据开发。单击左侧菜单栏中的 数据开发,右键单击 业务流程 新建一个流程。右键单击 步骤2 中新建的...

写入与查询

本文介绍 AnalyticDB MySQL 中写入与查询的常见问题及解决方法。说明 当常见问题场景中未明确产品系列时,表明该问题仅适用于 AnalyticDB MySQL 数仓版(3.0)。常见问题概览 湖仓版(3.0)集群是否支持通过JDBC方式查询Hudi表的数据?湖仓...

导入/导出任务

数据库 提交导入或导出任务相关SQL的数据库用户名。任务状态 任务状态,取值说明:init:任务初始化。running:任务运行中。finish:任务执行成功。failed:任务执行失败。若任务执行失败,您可以在SQL诊断页面,通过任务ID查询该任务,并...

创建资源组

AnalyticDB MySQL 湖仓版(3.0)支持使用XIHE BSP SQL、XIHE MPP SQL、Spark SQL等不同方式进行作业开发。Job型资源组运行XIHE BSP SQL和Spark SQL,Interactive型资源组运行XIHE MPP SQL。开始作业开发前,需要先创建一个Job型和...

设置可维护时间段

操作步骤 登录 云原生数据仓库AnalyticDB MySQL控制台。在页面左上角,选择集群所在地域。在左侧导航栏,单击 集群列表。根据您的集群类型,选择 湖仓版(3.0)或 数仓版(3.0)。单击目标 集群ID。在 集群信息 页面的 配置信息 区域,单击...

服务关联角色

本文为您介绍 云原生数据仓库 AnalyticDB MySQL 版(AnalyticDB for MySQL)(简称 AnalyticDB for MySQL)服务关联角色(AliyunServiceRoleForAnalyticDBForMySQL)的应用场景以及如何删除服务关联角色。背景信息 云原生数据仓库...

通过MySQL分析实例同步至数仓版

您可以登录 AnalyticDB MySQL版 控制台,查看实例的运行状态以及RDS MySQL数据的同步状态。登录 云原生数据仓库AnalyticDB MySQL控制台。在页面左上角,选择集群所在地域。在左侧导航栏,单击 集群列表。在 数仓版(3.0)中,单击 集群类型...

概述

TPC-H由TPC委员会制定发布,用于评测数据库的分析查询能力。TPC-H查询包含八张数据表和二十二条复杂SQL查询,大多数查询包含多表Join、子查询和Group By等。更多信息,请参见 TPC-H测试集。说明 本文的TPC-H的实现基于TPC-H的基准测试,并...

通过Spark SQL读写C-Store表数据

AnalyticDB MySQL 湖仓版(3.0)集群支持通过Spark SQL在线或离线读写C-Store表数据。本文主要介绍通过Spark SQL在线或离线读写C-Store表数据的具体方法。前提条件 湖仓版(3.0)集群的存储预留资源需大于0 ACU。详情请参见 创建湖仓版集群...

访问OSS-HDFS数据

AnalyticDB for MySQL 湖仓版(3.0)Spark支持访问OSS-HDFS数据源,本文介绍如何使用Spark来操作OSS-HDFS数据。前提条件 AnalyticDB MySQL 湖仓版(3.0)集群与OSS存储空间位于相同地域。已在湖仓版(3.0)集群中创建Job型资源组。具体操作...

Jupyter交互式作业开发

AnalyticDB for MySQL Spark支持使用Docker镜像快速启动Jupyter交互式开发环境,帮助您使用本地Jupyter Lab连接 AnalyticDB for MySQL Spark,从而利用 AnalyticDB for MySQL 的弹性资源进行交互测试和计算。前提条件 已创建 AnalyticDB ...

常见问题

通过 云原生数据仓库AnalyticDB MySQL控制台 湖仓版集群的数据同步和数据迁移功能实现数据入湖,会产生以下费用:AnalyticDB for MySQL 的ACU弹性资源费用,计费项详情,请参见 湖仓版(3.0)计费项。OSS 的存储费用、GET类请求次数以及PUT...

Spark常见报错

例如:同时访问Hive和RDS MySQL数据源,JAR包中应包含Hive数据源和RDS MySQL数据源的JDBC驱动。CommunicationsException.*Communications link failure 报错出现日志:Driver日志。报错原因:Spark作业中配置的弹性网卡无法访问指定的数据...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生数据仓库AnalyticDB MySQL版 大数据开发治理平台 DataWorks 云数据库 RDS 云解析DNS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用