数据存储

数据模型把列(Column)分为两大类:Key和Value。从业务角度看,Key和Value可以分别对应维度列和指标列。其中数据模型定义(keys_type)中指定的列为Key列,其他列为Value列,底层存储数据时会按照Key列排序。对于用户写入的数据,SelectDB...

权限说明

数据湖构建(DLF)产品的权限体系主要分为RAM权限以及DLF数据权限控制两大类,如果您要访问DLF的页面或数据,一般都需要通过这两层权限校验,才可以正确的访问到数据资源。RAM 权限:主要控制DLF所有OpenAPI的访问权限,决定RAM用户是否...

术语

节点(Node)PolarDB 集群由多个物理节点构成,每个集群中的节点可分为两类,每一节点关系对等,规格相同。这两节点分别叫主节点和只读节点。主节点(Primary node)PolarDB 主节点,也叫读写节点,一个集群中只有一个主节点。只读节点...

术语

节点(Node)PolarDB 集群由多个物理节点构成,每个集群中的节点可分为两类,每一节点关系对等,规格相同。这两节点分别叫主节点和只读节点。主节点(Primary node)PolarDB 主节点,也叫读写节点,一个集群中只有一个主节点。只读节点...

术语

节点(Node)PolarDB 集群由多个物理节点构成,每个集群中的节点可分为两类,每一节点关系对等,规格相同。这两节点分别叫主节点和只读节点。主节点(Primary node)PolarDB 主节点,也叫读写节点,一个集群中只有一个主节点。只读节点...

技术面临的挑战与革新

在Proxy的协同下,甚至可以做到节点切换对应用无感知 传统分布式架构与存储计算分离架构对比 分布式数据库其实已经有了不短的历史,早期的分布式数据库,在整体架构上可以分为share nothing和share disk两大类。share disk通过扩展底层的...

跨地域流量

跨地域的流量费分为两类:非跨境,即中国内地的地域到中国内地的地域,中国内地之外的地域到中国内地之外的地域。跨境,即中国内地的地域到中国内地之外的地域。此部分由中国联通负责运营和售卖,价格参见下表。此外,全球加速GA支持使用...

概述

不管是CSV还是ORC格式,PolarDB分布式版对这种存储格式都做了增强,既继承了原生格式的开源开放特性,又确保了这两类格式可以完全表达MySQL的数据协议。从数据同步方面来看,构建过程往往是由全量快照读取+增量同步条并行的同步链路...

DAS Auto Scaling弹性能力

数据库场景下,资源打满可分为计算资源和存储资源两大类,其主要表现:计算资源打满:主要表现为CPU或内存资源利用率达到100%,即当前规格下的计算能力不足。存储资源打满:主要表现为磁盘空间使用率达到100%,数据库写入的数据量达到...

可观测性体系概述

Kubernetes可观测性体系包含监控和日志部分,监控可以帮助开发者查看系统的运行状态,而日志可以协助问题的排查和诊断。本文介绍阿里云容器服务ACK可观测性生态分层和各层的可观测能力,以帮助您对容器服务可观测性生态有一个全面的认识...

常见问题

支持的数据库部署位置(接入方式)阿里云实例 有公网IP的自建数据库 通过数据库网关DG接入的自建数据库 通过云企业网CEN接入的自建数据库 ECS上的自建数据库 通过专线/VPN网关/智能接入网关接入的自建数据库 阿里云实例 通过数据库网关DG接...

实时分析链路数据

常见原因包括以下几数据库或微服务连接池过小,大量请求处于获取连接状态。可以调连接池最大线程数解决。N+1问题。例如一次外部请求内部调用了上百次的数据库调用,可以将碎片化的请求进行合并,降低网络传输耗时。单次请求数据过...

聚合支付:Ping+

在线交易业务轻量OLAP业务场景,使用 PolarDB-X 分析型只读实例,避免此前将OLTP业务数据通过ETL等方式同步至异构分析数据源,降低业务架构的链路复杂度,以节省运维及预算成本。通过 PolarDB-X 分库分表,将数据库水平拆分有效解决了...

导入与导出

数据同步过程中,可以修改源表中的字段类型,目前仅支持整型数据类型之间、浮点数据类型之间的列类型更改,并且只能将取值范围小的数据类型更改为取值范围数据类型,或者将单精度数据类型更改为双精度数据类型。整型数据类型:支持...

企业版和标准版功能对比

PolarDB MySQL版 企业版和标准版在功能上有很多差异,可分为集群管理、弹性管理、高性能、备份与恢复、高可用性、高安全、连接管理、高性价比、监控与优化、DB for AI、数据迁移&同步等11个类别。本文为您介绍这个版本的功能区别,帮助您...

新零售:特步

数据的实时性和计算量来看,特步的门店、采购、销售订单、库存、调拨、进销存、财务等业务模块的报表主要分为两大类:一类是实时性要求高,计算量相对小。特步使用了一个单独的 PolarDB-X 来满足这类报表需求,数据通过DTS同步到报表 ...

DataWorks快速入门指引

DataWorks基于MaxCompute、Hologres、EMR、AnalyticDB、CDP等大数据引擎,为数据仓库、数据湖、湖仓一体等解决方案提供统一的全链路大数据开发治理平台,为了便于新用户快速了解DataWorks的数据开发治理操作全流程,DataWorks为您提供了...

大数据AI公共数据集分析

教程简介 阿里云DataWorks基于多种大数据引擎,为数据仓库、数据湖、湖仓一体等解决方案提供统一的全链路大数据开发治理平台。本教程通过DataWorks,联合云原生大数据计算服务MaxCompute,使用大数据AI公共数据集(淘宝、飞猪、阿里音乐、...

客户案例

打造离线实时一体化数据中台,构建统一、完整的大数据应用链路,服务内部几核心业务。全链路数据治理提高数据可用性,让数据在中台进行自由流动,保证数据准确、准时、一致,成本削减1亿元。提高业务迭代效率,数据更新频率由1天变成10...

Db2 for LUW迁移至PolarDB-X 2.0

如为增量迁移任务,DTS要求源数据库的数据日志保存24小时以上,如为全量迁移和增量迁移任务,DTS要求源数据库的数据日志至少保留7天以上(您可在全量迁移完成后将数据日志保存时间设置为24小时以上),否则DTS可能因无法获取数据日志而导致...

使用DTS迁移实例

本文介绍如何使用数据传输服务DTS(Data Transmission Service),实现 RDS PostgreSQL 间的结构迁移、全量数据迁移以及增量数据迁移。同时使用这三种迁移类型可以实现在业务不停服的情况下,平滑地完成数据库的迁移。前提条件 已创建源和...

RDS PostgreSQL间的数据迁移

本文介绍如何使用数据传输服务DTS(Data Transmission Service),实现 RDS PostgreSQL 间的结构迁移、全量数据迁移以及增量数据迁移。同时使用这三种迁移类型可以实现在业务不停服的情况下,平滑地完成数据库的迁移。前提条件 已创建源和...

自建SQL Server迁移至RDS SQL Server

如为增量迁移任务,DTS要求源数据库的数据日志保存24小时以上,如为全量迁移和增量迁移任务,DTS要求源数据库的数据日志至少保留7天以上(您可在全量迁移完成后将数据日志保存时间设置为24小时以上),否则DTS可能因无法获取数据日志而导致...

Tracer 工具

说明 获取 TraceId,前提是存在 TracerContext,而 TracerContext 的创建分为两种情形:SOFA MVC 系统:每一次访问时作为入口创建一个 TracerContext,如果想激活 MVC 请求的 Tracer 功能,还需要在 sofa-config 配置文件里配置上 mvc_...

事件分析概述

事件总线EventBridge 支持的事件分析类型分为两类:云服务专用总线事件分析:聚焦阿里云官方事件源,无需额外绑定Schema信息,事件总线EventBridge 默认支持全部阿里云产品产生的事件。自定义总线事件分析:可自由查询自定义的事件内容,需...

审计配置

流量采集(Agent)RDS、PolarDB、自建数据库 通过在应用服务器或数据库服务器中部署Agent,并配置网络连接来打通数据采集链路。Agent将日志流量转发给 DSC 审计服务器完成日志采集。重要 该审计模式会消耗服务器的一些CPU、内存、网络带宽...

调用链采样配置最佳实践

但是我们也无法忽视调用链全量采集带来的网络I/O、链路处理、性能损耗、数据存储等可观测费用成本。常用采样方案介绍 通过大量实践发现,无论从计算、存储资源成本消耗上进行分析,还是从具体使用场景角度评估,都不一定需要收集所有埋点...

管理服务

例如,一个数据处理服务,分为数据准备和数据处理部分。数据准备函数资源需求小,可以选择小规格实例。数据处理函数资源需求,可以选择规格实例。创建服务 登录 函数计算控制台,在左侧导航栏,单击 服务及函数。在顶部菜单栏,选择...

资源规划和配置

资源组分类 资源组可分为公共资源组和独享资源组两类。公共资源组:DataWorks提供的、所有用户可共享使用的资源组,公共资源组使用高峰期可能会出现不同用户间抢占资源的情况。更多公共资源组的介绍可参见 使用公共资源组。独享资源组:...

东软案例

在互联网服务场景下,运维监控数据量激增,采集监控的数据类型更加多样(时序指标、日志、代码链路等),现有运维系统采用的单模引擎(如RRD数据库、openTSDB时序数据库、ElasticSearch检索类数据库)应对这些实时、高并发采集,且价值密度...

PolarDB-X 1.0迁移至PolarDB-X 2.0

如为增量数据迁移任务,DTS要求源数据库的本地Binlog日志保存24小时以上,如为全量数据迁移和增量数据迁移任务,DTS要求源数据库的本地Binlog日志至少保留7天以上(您可在全量迁移完成后将Binlog保存时间设置为24小时以上),否则DTS可能因...

PolarDB MySQL版间迁移

通过数据传输服务DTS(Data Transmission Service),可以帮助您实现 PolarDB MySQL版 集群间的数据迁移。说明 目前 PolarDB MySQL版 集群暂不支持升级MySQL版本至8.0版本,您可以创建一个新的 PolarDB MySQL版 集群(8.0版本),使用本...

RDS MySQL迁移至RDS PostgreSQL

DTS会通过 ROUND(COLUMN,PRECISION)来读取这两类列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位。执行数据迁移前需评估源库和目标库的性能,同时建议业务低峰期执行数据迁移。否则全量数据迁移时...

PolarDB MySQL版迁移至PolarDB-X 2.0

通过数据传输服务DTS(Data Transmission Service),您可以将 PolarDB MySQL版 集群的数据迁移至 PolarDB-X 2.0。前提条件 已创建源 PolarDB MySQL版 集群,详情请参见 购买按量付费集群 和 购买包年包月集群。已创建 PolarDB-X 2.0 实例...

Teradata迁移至云原生数据仓库 AnalyticDB PostgreSQL...

数据传输服务DTS(Data Transmission Service)支持将Teradata迁移至 云原生数据仓库AnalyticDB PostgreSQL版。前提条件 该迁移任务仅支持在新版控制台配置。Teradata数据库为17及以下版本。已创建目标 AnalyticDB PostgreSQL 实例,如未...

三节点企业系列的RDS MySQL迁移到集群系列的RDS MySQL

本文介绍如何使用数据传输服务(Data Transmission Service,简称DTS),实现将三节点企业系列的 RDS MySQL 实例的数据迁移到集群系列的RDS MySQL。前提条件 已创建源和目标 RDS MySQL 实例,创建方式,请参见 快速创建RDS MySQL实例。目标...

PolarDB MySQL版迁移至自建Oracle

本文介绍如何使用数据传输服务DTS(Data Transmission Service),将 PolarDB MySQL版 集群的数据迁移至自建Oracle。前提条件 已创建存储空间大于源 PolarDB MySQL版 集群已占用存储空间的自建Oracle数据库。若自建Oracle为RAC结构,需通过...

性能监控最佳实践

混合模式是指将统计数据通过公网统一上报,进行集中处理(数据量小,精度要求高),而链路数据采用跨云查询方式进行检索(数据,查询频率低)。仅透传模式是指每个云环境之间仅保证链路上下文能够完整透传,链路数据的存储与查询独立...

OceanBase(MySQL模式)迁移至PolarDB MySQL版

PolarDB MySQL版 集群是具备高性能、海量存储、安全可靠的数据库服务,本文为您介绍如何使用数据传输服务DTS(Data Transmission Service)将OceanBase数据库迁移至 PolarDB MySQL版 集群。前提条件 源OceanBase数据库需为社区版,且为4.X ...

向量计算(Proxima CE)概述

Proxima CE的使用十分简洁,以内嵌可执行JAR包的形式提供给用户在MaxCompute上运行,支持以MaxCompute表的形式作为底库和查询向量数据的输入,整体上分为索引构建和批量查询个主要过程,驱动多个MaxCompute MapReduce或Graph Job,完成对...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云数据库 Redis 版 数据库备份 DBS 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用