新用户必读

如果您是首次接触 云原生数据仓库AnalyticDB MySQL版 的用户,建议您先阅读以下部分。服务亮点和定价:产品详情...SQL手册:详细介绍 AnalyticDB MySQL 支持的数据类型、SQL语法以及示例。系统函数:介绍 AnalyticDB MySQL 支持的函数和示例。

轨迹服务

本文介绍针对车联网大数据场景,Lindorm Ganos时空引擎基于SQL接口实现的轨迹服务。背景信息 随着车联网行业的发展,汽车管理业务受到了更加广泛的关注。汽车云平台的业务系统每天都会接收到大量的车辆信息,例如车辆的实时位置和车辆的...

什么是云数据库ClickHouse

数据库ClickHouse视频简介 产品特性 云数据库ClickHouse 是面向联机分析处理的列式数据库,支持SQL查询,且查询性能好,特别是基于宽表的聚合分析查询性能非常优异,比其他分析型数据库速度快一个数量级。主要特性如下。数据压缩比高。...

产品系列

支持简单易用的数据交换、处理、订阅等能力,满足数据迁移、实时订阅、数湖转存、数仓回流、单元化多活、备份恢复等需求,实现面向 云原生多模数据库 Lindorm 的一站式数据生态服务。更多信息,请参见 LTS服务介绍。不涉及 不停服数据迁移...

OSS/OSS-HDFS概述

JindoData是阿里云开源大数据团队自研的数据湖存储加速套件,面向大数据和AI生态,为阿里云和业界主要数据湖存储系统提供全方位访问加速解决方案。JindoData套件基于统一架构和内核实现,主要包括 JindoFS 存储系统(原JindoFS Block模式)...

产品优势

本文介绍了 表格存储 的优势,包括多模型数据存储、多元化数据索引、多计算生态接入、访问安全性等。多模型数据存储 表格存储 支持宽表(WideColumn)模型、时序(TimeSeries)模型、消息(Timeline)等多种数据存储模型,能实现多种类型...

概述

消息队列 SOFAStack 消息队列是基于 Apache RocketMQ 构建的分布式消息中间件,并与金融分布式架构 SOFAStack 深度集成,为分布式应用系统提供异步解耦和削峰填谷的能力,支持事务消息、顺序消息、定时消息等多种消息类型,并具备高可靠、...

内置时空数据引擎Ganos

IoT时空解决方案:支持通过Kafka、Flink等流式引擎和消息中间件接入时空流式数据建模为移动对象数据库、激光点云数据库或时序点数据库。Ganos将逐步沉淀基础时空云计算能力到云计算基础平台,赋能ISV厂商,推动时空云计算作为数字化转型的...

云产品集成

您可以使用 DMS 录入云数据库 OceanBase 的数据,通过 DMS 的全域数据资产管理、数据治理、数据库设计开发、数据集成、数据开发和数据消费等功能,帮助企业高效、安全地挖掘数据价值,助力企业数字化转型。什么是数据管理DMS 支持的数据库...

使用方法

您可以使用数据过滤器,自定义数据过滤代码,实现数据结构转换、数据筛选展示和一些简单的计算。本文介绍新版DataV资产数据过滤器的使用方法。背景信息 新版数据过滤器与旧版过滤器相比,取消了全局过滤器的概念(即各可视化应用共享过滤器...

概览

集群管理系统的概览页面提供了 云原生多模数据库 Lindorm 实例宽表引擎中所有表的详细信息,包括表的大小、分片情况、数据预览、表结构、限流信息等。本文介绍如何通过集群管理系统管理宽表。前提条件 已登录目标实例的集群管理系统,具体...

Iceberg概述

您可以借助Iceberg快速地在HDFS或者阿里云OSS上构建自己的数据湖存储服务,并借助开源大数据生态的Spark、Flink、Hive和Presto等计算引擎来实现数据湖的分析。核心能力 Apache Iceberg设计初衷是为了解决Hive数仓上云的问题,经过多年迭代...

开通备份恢复

云原生多模数据库 Lindorm 宽表引擎支持数据备份恢复功能,该功能基于数据生态服务中的数据迁移,将数据存储至阿里云对象存储服务OSS(Object Storage Service,简称OSS)中,定期全量备份数据,实时增量同步数据,来满足对数据备份和数据...

数据集成

本文为您介绍数据同步的相关内容。背景信息 除数据开发(DataStudio)的数据同步节点外,数据集成模块还支持多种类型同步方案,例如,全增量数据实时同步,整库离线同步等。数据集成模块与同步解决方案的更多介绍,详情请参见 支持的数据源...

恢复数据库

数据库备份DBS 提供数据恢复能力,通过创建恢复任务将已完成备份的数据恢复到云数据库、本地数据库或DBS沙箱中,可用于误操作后恢复以及分析历史数据等场景。前提条件 DBS备份计划的运行状态为 运行中。已完成数据库备份。相关操作,请参见...

什么是MaxCompute

数据生态支持 MaxCompute与阿里云DataWorks深度结合,可通过DataWorks实现一站式数据开发分析治理,同时也支持其他多种数据开发分析场景:数据湖 数据集成 数据治理 三方引擎的数据开发 数据可视化分析 TopConsole(管理控制台)提供...

名词解释

详细介绍,请参见 二级索引。TAG ✖️ 〇 Tag(标签)描述产生时序数据数据源特征,通常不随时间变化。Tag由Tag Key、Tag Value组成,两者均为字符串(STRING)类型。在时序表的主键列中,时间戳列以外的列默认被视作标签列。为贴合业务...

什么是云数据库HBase

数据库HBase是低成本、高扩展、云智能的大数据NoSQL,兼容标准HBase访问协议,提供低成本存储、高扩展吞吐、智能数据处理等核心能力,是为淘宝推荐、花呗风控、广告投放、监控大屏、菜鸟物流轨迹、支付宝账单、手淘消息等众多阿里巴巴...

创建数据库

本文介绍如何在 PolarDB-X 实例上创建数据库。操作步骤 登录 PolarDB...两种模式的详细介绍请参见 AUTO模式数据库与DRDS模式数据库。备注说明 备注该数据库的相关信息,便于后续数据库管理。该参数为非必填项,最多支持256个字符。单击 确定。

EMR Workbench

阿里云EMR Workbench是一个综合性的大数据分析和开发环境,作为阿里云E-MapReduce的一部分,它提供了EMR Notebook和EMR Workflow两个核心功能。通过EMR Workbench,您可以轻松进行数据开发,以及交互式数据分析,并设计复杂的数据处理工作...

企业版及社区兼容版功能对比

本文将介绍数据库ClickHouse 企业版和社区兼容版的产品架构、内核版本的对比。产品架构对比 企业版架构 云数据库 ClickHouse 企业版 采用云原生存储与计算资源分离架构,且存储资源和计算资源均采用Serverless模式,该模式下可按需弹性...

从PolarDB MySQL版同步到Kafka

Kafka是应用较为广泛的分布式、高吞吐量、高可扩展性消息队列服务,普遍用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等数据领域,是大数据生态中不可或缺的产品之一。通过数据传输服务DTS(Data Transmission Service),...

Dataphin支持的实时数据

Ververica Flink支持的实时数据源 存储类型 数据源类型 读 写 维表读 大数据存储 MaxCompute 支持 支持 支持 DataHub 支持 支持-Hologres 支持 支持 支持 数据湖 Hudi 支持 支持-Iceberg 支持(仅支持原生DDL方式)支持(仅支持原生DDL方式...

查看敏感数据识别结果

仅支持在 结构化数据、半结构化数据、非结构化数据大数据 分类下分别选择一个或多个数据类型,不支持跨分类同时选择多个数据类型。如果您未选中任意数据类型,数据安全中心默认展示所有数据类型下的敏感数据识别结果。数据模板:在 ...

领域模型概述

消息传输模型介绍 主流的消息中间件的传输模型主要为点对点模型和发布订阅模型。点对点模型 点对点模型也叫队列模型,具有如下特点:消费匿名:消息上下游沟通的唯一的身份就是队列,下游消费者从队列获取消息无法声明独立身份。一对一通信...

构建数据仓库

DataWorks具有通过可视化方式实现数据开发、治理全流程相关的核心能力,本文将为您介绍DataWorks在构建云上大数据仓库和构建智能实时数据仓库两个典型应用场景下的应用示例。构建云上大数据仓库 本场景推荐的架构如下。适用行业:全行业...

数据质量概述

功能介绍 数据质量支持对常见数据存储(MaxCompute、E-MapReduce Hive、Hologres等)进行质量校验。从完整性、准确性、有效性、一致性、唯一性和及时性等多个维度,配置质量监控规则。并可以将质量监控规则与调度节点进行关联,当任务...

消息(Message)

系统默认的消息最大限制如下:普通和顺序消息:4 MB 事务和定时或延时消息:64 KB 使用建议 单条消息不建议传输超大负载 作为一款消息中间件产品,云消息队列 RocketMQ 版 一般传输的是都是业务事件数据。单个原子消息事件的数据大小需要...

从自建MySQL同步至云消息队列 Kafka 版

消息队列 Kafka 版 广泛用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等数据领域,已成为大数据生态中不可或缺的部分。注意事项 DTS在执行全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升...

冷热分层

本文介绍数据的特点和适应场景,通过表格存储Tablestore和Delta Lake结合示例,演示数据的冷热分层。冷热分层可以充分利用计算和存储资源,以低成本承载更优质服务。背景信息 在海量大数据场景下,随着业务和数据量的不断增长,性能和...

从PolarDB MySQL版同步到Kafka

Kafka是应用较为广泛的分布式、高吞吐量、高可扩展性消息队列服务,普遍用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等数据领域,是大数据生态中不可或缺的产品之一。通过数据传输服务DTS(Data Transmission Service),...

从RDS MySQL迁移至自建Kafka

Kafka是应用较为广泛的分布式、高吞吐量、高可扩展性消息队列服务,普遍用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等数据领域,是大数据生态中不可或缺的产品之一。通过数据传输服务DTS(Data Transmission Service),...

创建GreenPlum数据

通过创建GreenPlum数据源能够实现Dataphin读取GreenPlum的业务数据或向GreenPlum写入数据。本文为您介绍如何创建GreenPlum数据源。背景信息 Greenplum是一款大数据分析引擎,作用于分析、机器学习和AI等领域。其架构主要针对管理规模分析...

从自建MySQL同步至阿里云消息队列Kafka版

消息队列Kafka版广泛用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等数据领域,已成为大数据生态中不可或缺的部分。注意事项 DTS在执行全量数据初始化时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在...

从ECS上的自建MySQL同步至自建Kafka集群

Kafka是应用较为广泛的分布式、高吞吐量、高可扩展性消息队列服务,普遍用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等数据领域,是大数据生态中不可或缺的产品之一。通过数据传输服务DTS(Data Transmission Service),...

数据页面管理

本文介绍数据页面中各个数据功能的使用方法。数据页面分为两模块,包括 我的数据分组 和 数据管理 页面。我的数据分组 在 我的数据分组 页面中,您可以对不同的数据类型分成不同的组。您可以实现如下多个功能:功能 说明 新增分组 单击 ...

数据页面管理

本文介绍数据页面中各个数据功能的使用方法。数据页面分为两模块,包括 我的数据分组 和 数据管理 页面。我的数据分组 在 我的数据分组 页面中,您可以对不同的数据类型分成不同的组。您可以实现如下多个功能:功能 说明 新增分组 单击 ...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

从ECS上的自建MySQL同步至自建Kafka集群

Kafka是应用较为广泛的分布式、高吞吐量、高可扩展性消息队列服务,普遍用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等数据领域,是大数据生态中不可或缺的产品之一。通过数据传输服务DTS(Data Transmission Service),...

数据集成支持的数据

本文为您介绍离线集成、整库迁移支持的数据源类型。不同集成类型适用场景 集成类型 适用场景 离线集成 适用于数据上云、云上数据迁移到本地业务系统等场景。例如,将本地数据库MySQL的数据迁移至阿里云数据库RDS中。整库迁移 适用于将本地...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云数据库 Redis 版 云消息队列 Kafka 版 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用