作业投递

AnalyticDB MySQL 数仓版(3.0)的作业投递功能支持将资源组中满足一定条件的查询作业(通常为资源消耗大、耗时久的大查询)投递至指定一资源组中,避免影响资源组中其他查询作业。本文介绍如何开启并使用作业投递功能。前提条件 ...

通过日志服务导入至数仓版

左边文本框为日志字段名称,右边为AnalyticDB MySQL数据库表中的字段。说明 Timestamp类型的字段映射精确到秒级别。例如日志时间为2022-01-05 10:12:13.145,投递到AnalyticDB MySQL后,投递结果为2022-01-05 10:12:13。投递开始时间 配置...

连接

本文介绍 AnalyticDB MySQL 中连接的常见问题及解决方法。说明 当常见问题场景中未明确产品系列时,表明该问题仅适用于 AnalyticDB MySQL 数仓版(3.0)。常见问题概览 如何解决白名单设置问题导致的连接失败?当查询过程中关闭了JDBC连接...

SQL审计

SQL审计功能可以实时记录数据库DML和DDL操作信息,并提供数据库操作信息的检索功能。使用限制 SQL审计日志不记录以下操作:INSERT INTO VALUES REPLACE INTO VALUES UPSERT INTO VALUES 开启/关闭SQL审计 登录 云原生数据仓库AnalyticDB ...

查看资源弹性计划执行日志

操作步骤 登录 云原生数据仓库AnalyticDB MySQL控制台。在页面左上角,选择集群所在地域。在左侧导航栏,单击 集群列表。在 数仓版(3.0)或 湖仓版(3.0)页签下,单击目标集群ID。数仓版(3.0)集群,在左侧导航栏,单击 资源弹性扩容。...

查看资源组监控

云原生数据仓库 AnalyticDB MySQL 版 湖仓版(3.0)的资源管理既可以展示集群级别的计算和存储资源用量,也展示资源组和作业级别的计算资源使用情况。本文介绍如何通过资源管理查看集群、资源组、作业的资源用量,包括预留资源用量和弹性...

SQL诊断功能介绍

其中用户名、数据库名、资源组的可选取值是整体检索结果中已有的取值,而不是当前 AnalyticDB MySQL版 集群中的所有取值。例如,AnalyticDB MySQL版 集群中有3个数据库:db1、db2、db3,而符合整体检索条件的查询仅涉及 db1 和 db2。此时...

账号授权

前提条件 已创建 湖仓版(3.0)集群。详情请参见 创建集群。Spark作业权限说明 提交Spark作业,需要具备以下三种权限。AliyunADBFullAccess:管理 AnalyticDB MySQL 集群的权限。...相关文档 访问RDS MySQL数据源 访问OSS数据源

通过Spark SQL读写OSS外表

创建外表时选择的OSS路径需比创建数据库时选择的OSS路径至少多一层目录,且外表的路径需在数据库路径下。可以在tblproperties中配置 'auto.create.location'='true' 自动创建OSS路径。如果未指定该参数并且OSS中不存在该路径,请先创建对应...

Spark开发编辑器

前提条件 已创建 AnalyticDB MySQL 湖仓版(3.0)集群,详情请参见 创建集群。已创建Job型资源组,且计算预留资源需大于等于8 ACU。创建资源组,详情请参见 新建资源组。已为RAM用户授权。具体操作,请参见 为RAM用户授权。已将RAM用户(子...

XUANWU_V2引擎介绍(邀测中)

本文为您介绍 云原生数据仓库 AnalyticDB MySQL 版 表引擎(XUANWU_V2)和相关组件(Compaction Service)的使用方法。前提条件 满足以下两个条件的集群支持XUANWU_V2引擎:产品系列为 湖仓版(3.0)。内核为3.2.0及以上版本。说明 如何...

访问OSS数据

云原生数据仓库AnalyticDB MySQL版 数据库产品 编写Python程序,将Python程序上传至OSS。本文示例的Python程序名为 example.py,用于读取文本文件readme.txt的第一行内容。import sys from pyspark.sql import SparkSession#初始Spark ...

访问MongoDB数据

本文介绍如何使用 AnalyticDB MySQL版 湖仓版(3.0)Spark访问云数据库MongoDB数据。前提条件 已创建AnalyticDB MySQL湖仓版(3.0)集群。具体操作,请参见 创建湖仓版(3.0)集群。已创建数据库账号。如果您是通过阿里云账号访问,只需...

Flink数据导入

步骤三:数据验证 登录 AnalyticDB MySQL 目标数据库,来查看并验证源数据是否成功导入。步骤一:数据准备 在其中一个Flink节点的root目录下,执行 vim/root/data.csv 命令来创建一个名为data.csv的CSV文件。文件中包含的数据如下(您可以...

通过Spark SQL读写Hudi外表

创建外表时选择的OSS路径需比创建数据库时选择的OSS路径至少多一层目录,且外表的路径需在数据库路径下。建表时必须定义primaryKey主键。preCombineField预聚合字段为可选,如未定义preCombineField在UPDATE场景会报错。步骤三:写入Hudi...

通过Spark SQL读写Delta外表

如果已有数据库,可跳过本步骤。CREATE DATABASE if not exists external_delta_db location"oss:/<bucket_name>/test/;用于在该路径中创建表,请替换为自己的OSS路径。执行以下语句,创建Delta外表。CREATE TABLE if not exists external_...

启停ThriftServer

AnalyticDB for MySQL 湖仓版(3.0)Job型资源组默认使用批处理方式执行Spark SQL,如果您想要使用Job型资源组执行交互式查询,则需要启动ThriftServer。启动ThriftServer后,可以在同一资源组内并发执行多个交互式查询,提升查询效率。...

查看当天资源弹性计划

操作步骤 登录 云原生数据仓库AnalyticDB MySQL控制台。在页面左上角,选择集群所在地域。在左侧导航栏,单击 集群列表。在 数仓版(3.0)或 湖仓版(3.0)页签下,单击目标集群ID。数仓版(3.0)集群,在左侧导航栏,单击 资源弹性扩容。...

DML差异

MySQL 云原生数据仓库AnalyticDB MySQL 定义 CALL 不支持 调用存储过程。DELETE 支持,详情请参见 DELETE。从表中删除行。DO 不支持 执行表达式,但不返回任何结果。HANDLER 不支持 直接访问表存储引擎接口。INSERT 支持,详情请参见 ...

使用XIHE BSP SQL进行作业开发

示例数据文件内容如下:001,Anna,99,London 002,Bob,67,USA 003,Cindy,78,Spain 004,Dan,100,China 步骤一:创建OSS外表 登录 云原生数据仓库AnalyticDB MySQL控制台。在页面左上角,选择集群所在地域。在左侧导航栏,单击 集群列表。在 湖...

Spark常见报错

例如:同时访问Hive和RDS MySQL数据源,JAR包中应包含Hive数据源和RDS MySQL数据源的JDBC驱动。CommunicationsException.*Communications link failure 报错出现日志:Driver日志。报错原因:Spark作业中配置的弹性网卡无法访问指定的数据...

管理资源弹性计划

操作步骤 登录 云原生数据仓库AnalyticDB MySQL控制台。在页面左上角,选择集群所在地域。在左侧导航栏,单击 集群列表。在 数仓版(3.0)或 湖仓版(3.0)页签下,单击目标集群ID。数仓版(3.0)集群,在左侧导航栏,单击 资源弹性扩容。...

管理备份

为确保数据误操作后,AnalyticDB MySQL版 具备数据快速恢复的能力,集群创建成功后,AnalyticDB MySQL版 会自动在后台开启数据备份功能,实现集群级别的数据备份。您可以在 AnalyticDB MySQL版 控制台查看集群的备份集或修改备份设置。注意...

通过Spark SQL读写C-Store表数据

AnalyticDB MySQL 湖仓版(3.0)集群支持通过Spark SQL在线或离线读写C-Store表数据。本文主要介绍通过Spark SQL在线或离线读写C-Store表数据的具体方法。前提条件 湖仓版(3.0)集群的存储预留资源需大于0 ACU。详情请参见 创建湖仓版集群...

为什么建表必须有分区键?

HybridDB for MySQL 目前仅支持分区表,用户可以指定一个分区键,HybridDB for MySQL 会根据该分区键为用户自动分布数据,如果没有分区键,HybridDB for MySQL 无法决定数据按何种方式分布最优。

访问OSS-HDFS数据

AnalyticDB for MySQL 湖仓版(3.0)Spark支持访问OSS-HDFS数据源,本文介绍如何使用Spark来操作OSS-HDFS数据。前提条件 AnalyticDB MySQL 湖仓版(3.0)集群与OSS存储空间位于相同地域。已在湖仓版(3.0)集群中创建Job型资源组。具体操作...

导入数据并查询

前提条件 通过以下步骤在OSS中创建存储 AnalyticDB for MySQL 数据的目录。开通OSS服务。详情请参见 开通OSS服务。创建存储空间。详情请参见 控制台创建存储空间。重要 OSS的存储空间与 AnalyticDB for MySQL 所属地域相同。创建目录。详情...

Job型资源组的优先级队列

本文介绍设置 湖仓版(3.0)Job型资源组的作业优先级和查看优先级的方法。...查看Spark Batch作业优先级 登录 云原生数据仓库AnalyticDB MySQL控制台,在 作业开发>Spark Jar开发 页面的 应用列表 页签中查看作业的优先级。

HybridDB for MySQL设计和实践优化建议

当用户在使用HybridDB for MySQL进行数据库设计和实践的过程中,我们有如下建议:分区键的选择 分区键是数据库控制数据分布的维度,以该条件进行等值查询,查询范围只会限制在一个存储分区上,通常选择查询最频繁的列,或数据分布最均匀的...

使用Spark SQL进行作业开发

步骤一:创建OSS Hudi外表 登录 云原生数据仓库AnalyticDB MySQL控制台,在左上角选择集群所在地域。在左侧导航栏,单击 集群列表,在 湖仓版(3.0)页签,单击目标集群ID。在左侧导航栏,单击 作业开发>SQL开发。在 SQLConsole 窗口,选择...

通过Spark Distribution SQL Engine开发Spark SQL作业

} } } 重要 启动Spark Distribution SQL Engine时,若设置了 spark.sql.hive.metastore.version=adb,则连接地址中的数据库必须为 AnalyticDB for MySQL 中已存在的数据库,否则会默认使用 default 数据库,造成连接失败。ThriftServer ...

访问MaxCompute数据

本文介绍如何使用AnalyticDB MySQL湖仓版(3.0)Spark SQL读写MaxCompute数据。背景信息 大数据计算服务MaxCompute是一种快速、完全托管的TB/PB级数据仓库解决方案。您可以通过AnalyticDB MySQL湖仓版(3.0)Spark SQL读写MaxCompute数据。...

小查询自动识别与加速

操作步骤 登录 云原生数据仓库AnalyticDB MySQL控制台,在左上角选择集群所在地域。在左侧导航栏,单击 集群列表,在 数仓版(3.0)页签,单击目标集群ID。在左侧导航栏,单击 工作负载管理。单击 小查询加速 页签,打开 自动小查询加速 ...

通过PySpark开发Spark应用

本文介绍了如何开发 AnalyticDB MySQL Spark Python作业,以及如何通过VirtualEnv技术打包Python作业的运行环境。前提条件 已创建 AnalyticDB MySQL 湖仓版(3.0)。具体操作,请参见 创建集群。已创建Job型资源组。具体操作,请参见 新建...

切换专有网络VPC和交换机

当 AnalyticDB for MySQL 集群和ECS实例不在同一专有网络,又有内网互通需求时,可参考本文档,切换 AnalyticDB for MySQL 集群所属的专有网络。注意事项 切换专有网络和交换机 属于异步操作。切换时,集群可能会出现闪断及读写失败,请在...

SQL Pattern

同时,SQL Pattern的聚合结果能作为数据库优化的有效依据。针对导致实例压力过大的Bad SQL,用户还可以通过拦截功能,对其进行拦截,快速恢复实例,详情请参见 Persist plan and Query-Blocker。功能说明 SQL Pattern具备以下功能。Pattern...

GrantOperatorPermission-为集群服务账号授权

访问级别 资源类型 条件关键字 关联操作 adb:GrantOperatorPermission Write DBCluster acs:adb:{#regionId}:{#accountId}:dbcluster/{#dbclusterId} 无 无 请求参数 名称 类型 必填 描述 示例值 DBClusterId string 是 AnalyticDB MySQL ...

从MaxCompute批量导入导出

导出HybridDB for MySQL数据到MaxCompute非分区表 insert[overwrite]into odps_nopart_export_test_external_table select*from hybriddb_nopart_export_test#导出HybridDB for MySQL数据到MaxCompute分区表某个分区 insert[overwrite]into...

通过Spark SQL读Lindorm数据

AnalyticDB MySQL 湖仓版(3.0)支持通过Spark SQL访问Lindorm数据库。本文主要介绍如何通过Spark SQL访问Lindorm中的Hive表和宽表的数据。前提条件 已创建Lindorm单可用区实例。具体操作,请参见 创建实例。重要 Lindorm实例需开通宽表...

通过外表导入至湖仓版

在 AnalyticDB MySQL 中创建数据库,示例如下:CREATE DATABASE adb_demo;在 AnalyticDB MySQL 中创建表用于存储从MaxCompute中导入的数据,示例如下:说明 新表和步骤3中创建的外表的字段顺序和字段数量需要一致,字段类型兼容。CREATE ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生数据仓库AnalyticDB MySQL版 数据库备份 DBS 云数据库 RDS 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用