购买指引

产品版本 入门版 标准版 高级版 版本选择建议 小型数据团队 中小型数据团队 中型数据团队 功能规格 数据同步 离线数据同步 离线数据同步 实时数据同步 配置化数据同步 离线数据同步 实时数据同步 配置化数据同步 多引擎数据计算任务编排 ...

质量规则模板类型

实时元表模板类型 模板详情分类 描述 一致性 实时离线对比 当实时数据与离线数据使用相同的统计逻辑时,用于数据的最终值差异的校验。如果差异较大,可能存在较大数据质量的问题需要进行确认和修复。实时多链路对比 高可用场景下,需要构建...

质量规则模板类型

实时元表模板类型 模板详情分类 描述 一致性 实时离线对比 当实时数据与离线数据使用相同的统计逻辑时,用于数据的最终值差异的校验。如果差异较大,可能存在较大数据质量的问题需要进行确认和修复。实时多链路对比 高可用场景下,需要构建...

什么是数据传输服务DTS

数据传输服务DTS(Data Transmission Service)是阿里云提供的实时数据流服务,支持关系型数据库(RDBMS)、非关系型的数据库(NoSQL)、数据多维分析(OLAP)等数据源间的数据交互,集数据同步、迁移、订阅、集成、加工于一体,助您构建...

功能特性

基于DLA+DTS同步RDS数据来构建实时数据湖 DLA Serverless Presto DLA Serverless Presto是云原生数据湖团队基于Presto打造的交互式分析引擎,Presto开发的初衷就是为了解决使用Hive来进行在线分析速度太慢的问题,因此它采用全内存流水线化...

独享数据集成资源组

例如,单表实时数据同步、整库实时数据同步。详情请参见 实时同步能力说明。提供一系列同步解决方案。例如,整库离线数据同步,单表或整库全增量实时数据同步。详情请参见 同步解决方案能力说明。说明 独享数据集成资源组保障的是数据同步...

快速搭建实时数仓分析大屏

背景信息 Hologres是阿里云的实时交互式分析产品,通过内置的实时数据API(详情请参见 实时数据API)直接对接实时计算,实现高并发实时写入或查询实时数据,速度达到秒级。Hologres兼容PostgreSQL,将查询到的数据直接对接BI分析工具,使用...

数据质量:全流程的质量监控

数据质量以数据集(DataSet)为监控对象,支持监控MaxCompute数据表和DataHub实时数据流。当离线MaxCompute数据发生变化时,数据质量会对数据进行校验,并阻塞生产链路,以避免问题数据污染扩散。同时,数据质量提供历史校验结果的管理,...

实时同步能力说明

DataWorks为您提供的实时数据同步功能,方便您使用单表或整库同步方式,将源端数据库中部分或全部表的数据变化实时同步至目标数据库中,实现目标库实时保持和源库的数据对应。使用限制 实时同步不支持在数据开发界面运行任务,您需要保存、...

集成与开发概览

通过可视化拖拉拽操作、SQL语句(100%兼容Flink)两种方式配置流式加工任务,实现流式数据的抽取、数据转换和加工、数据装载能力,适用于日志、在线数据实时加工处理、实时统计报表等各类实时数据开发场景。数据开发 任务编排。更多信息,...

使用流程

通过一键建仓和多仓合并建仓(仅支持数据库)、实时数据湖(支持数据库和消息日志)功能来构建数据湖。具体操作请参见 一键建仓 多库合并建仓 和 实时数据湖。连接数据源:您也可以通过DLA直接连接其他数据源或者OSS来进行数据分析与计算。...

轨迹服务

如何保存和处理这些实时数据,如何提升实时查询性能,成为平台需要面临的新问题。业务挑战 面对海量的车辆实时数据,汽车云平台的业务系统需要达到以下要求:能高效写入海量轨迹点,且存储成本低。实时计算:实时电子围栏:实时判断车辆...

数据同步流程

适用于数据异地多活、数据异地灾备、数据聚合和实时数据仓库等多种业务场景。您可以参考以下流程进行同步前的准备工作、以及购买、配置和管理数据同步项目。完成准备工作。数据传输已具备云资源访问权限。详情请参见 数据传输迁移角色授权...

使用Flink SQL消费实时变更数据示例

云原生多模数据库 Lindorm 支持实时数据订阅功能,对实时变更数据进行计算,可以为实时监控,实时报表和流数据分析功能提供有效数据。通过Flink Kafka Connector可以从底层存储消费订阅数据,同时Flink Kafka Connector对订阅数据进行解析...

典型场景

构建数据湖 实时数据湖:支持DB的CDC与消息数据(如Kafka)入湖,构建大规模的可以增删改查的数据集,延迟为T+10分钟。一键建仓:支持数据库一键入湖,T+1天。文件上传:数据上传后,DLA元数据发现功能可自动发现并构建好元数据体系。数据...

Iceberg概述

而Iceberg简化了工作流程,整个数据处理过程是一条完整的、可靠的实时流,其数据的清洗、转换和特征化等操作都是流上的节点动作,无需处理历史数据和实时数据。此外,Iceberg还支持原生的Python SDK,对于机器学习算法的开发者非常友好。

新建元表

数据源 Dataphin支持的实时数据源及创建的表类型详情,请参见 Dataphin支持的实时数据源。您也可以自定义实时数据源类型,具体操作,请参见 新建实时自定义源类型。选择数据源后,您还需根据数据源类型,配置对应信息。详情请参见 附录:...

实时消费Kafka数据

当您需要将Kafka数据写入 云原生数据仓库AnalyticDB PostgreSQL版,且不希望使用其他数据集成工具时,可以通过实时数据消费功能直接消费Kafka数据,减少实时处理组件依赖,提升写入吞吐。Apache Kafka是一个容错、低延迟、分布式的发布-...

新建元表

数据源 Dataphin支持的实时数据源及创建的表类型详情,请参见 Dataphin支持的实时数据源。您也可以自定义实时数据源类型,具体操作,请参见 新建自定义数据源类型。选择数据源后,您还需根据数据源类型,配置对应信息。详情请参见 附录:...

永洪BI

本文介绍如何通过永洪BI连接 云原生数据仓库AnalyticDB MySQL版 集群并进行实时数据分析。前提条件 安装MySQL JDBC驱动。安装永洪BI工具。如果您需要通过外网连接 云原生数据仓库AnalyticDB MySQL版 集群,请先申请外网地址。具体操作,请...

数据传输作业:数据集成

实时同步 DataWorks提供的实时数据同步功能,使用单表或整库同步方式,将源端数据库中部分或全部表的数据变化实时同步至MaxCompute中,实现MaxCompute实时保持和源库的数据对应。一个实时同步任务支持多个转换插件进行数据清洗,并支持多个...

数据同步操作指导

数据同步功能可以帮助您实现数据源之间的数据实时同步,适用于数据异地多活、数据异地灾备、本地数据灾备、跨境数据同步、查询与报表分流、云BI及实时数据仓库等多种业务场景。本文介绍数据同步功能的具体使用流程,帮助您快速掌握创建、...

数据存储冷热分离

如果加载数据之后 hot_total_size 和 cold_total_size 都为0,则表示数据还在实时中,rt_total_size 为实时数据的存储,可以通过执行build语句,将实时数据转换为分区数据,待build完成后可以查到 hot_total_size 和 cold_total_size。...

数据迁移、同步和恢复区别

数据同步主要用于两个数据源之间的数据实时同步,适用于异地多活、数据灾备、跨境数据同步、查询与报表分流、云BI及实时数据仓库等场景。它属于持续性任务,任务创建后会一直同步数据,保持数据源和数据目标的数据一致性。

数据迁移、同步和恢复区别

数据同步主要用于两个数据源之间的数据实时同步,适用于异地多活、数据灾备、跨境数据同步、查询与报表分流、云BI及实时数据仓库等场景。它属于持续性任务,任务创建后会一直同步数据,保持数据源和数据目标的数据一致性。

数据迁移、同步和恢复区别

数据同步主要用于两个数据源之间的数据实时同步,适用于异地多活、数据灾备、跨境数据同步、查询与报表分流、云BI及实时数据仓库等场景。它属于持续性任务,任务创建后会一直同步数据,保持数据源和数据目标的数据一致性。

数据迁移、同步和恢复区别

数据同步主要用于两个数据源之间的数据实时同步,适用于异地多活、数据灾备、跨境数据同步、查询与报表分流、云BI及实时数据仓库等场景。它属于持续性任务,任务创建后会一直同步数据,保持数据源和数据目标的数据一致性。

ClickHouse概述

实时数据更新,Clickhouse支持近实时的数据插入、指标聚合以及索引创建。支持索引 按照主键对数据进行排序,ClickHouse可以在几十毫秒以内完成对数据特定值或范围的查找。典型应用场景 场景 描述 用户行为分析 行为分析系统的表可以制作...

Transaction Table2.0概述

随着当前数据处理业务场景日趋复杂,很多业务场景并不要求延时秒级更新可见或者行级更新,更多的需求是分钟级或者小时级的近实时数据处理叠加海量数据批处理场景,MaxCompute支持基于Transaction Table2.0实现近实时的增全量一体的数据存储...

数据同步方案概览

数据同步功能帮助您实现数据源之间的数据实时同步,适用于数据异地多活、数据异地灾备、本地数据灾备、跨境数据同步、云BI及实时数据仓库等多种业务场景。本文将介绍数据同步功能支持的数据库、同步类型和同步拓扑。收费策略 DTS数据同步...

产品优势

实时数据传输 多种数据传输方式:基于DTS的实时数据传输,提供数据迁移、数据同步、数据订阅功能,满足不同的传输需求。高性能:支持分布式集成架构,突破单机瓶颈。同时提供限流手段,按需限流保护数据源。运维简单:通过性能监控、端到端...

资产大盘

资产大盘仅统计并展示T+1前7天数据资产的变化趋势,非实时数据。操作步骤 登录 数据管理DMS 5.0。在顶部菜单栏中,选择 数据资产>资产大盘。说明 若您使用的是极简模式的控制台,请单击控制台左上角的 图标,选择 全部功能>数据资产>资产...

分析实例简介

云原生数据仓库 AnalyticDB MySQL 版(AnalyticDB for MySQL)分析实例中,并自动搭建实时数据仓库对数据进行分析。详细创建步骤请参见 创建云原生数据仓库 云原生数据仓库 AnalyticDB MySQL 版(AnalyticDB for MySQL)版(AnalyticDB for...

数据集成:全领域数据汇聚

适用场景 DataWorks数据集成适用于数据入湖入仓、分库分表、实时数据归档、云间数据流转等数据传输场景。计费 运行数据集成任务可能产生的费用由以下几部分组成:运行数据集成任务所需的 数据集成资源组 费用。计费详情请参见 独享数据集成...

基本概念

数据集将根据设置的维度对实时数据进行相应聚合操作。数据集指标 数据集中存储的具体监控指标,一般为数字类型,类似于多维联机分析处理中的值。ARMS的指标一般对应于实时计算后的Count、Max、Sum、Count Distinct等值。数据清洗 对自定义...

概述

由于需要对实时数据进行脱敏,因此相较于镜像库,生产库的查询性能会略受影响。静态脱敏 将生产库的全量数据导入至一个镜像数据库中,同时在导数据的过程中对敏感数据进行加密或脱敏。应用程序访问的不是真正的生产库而是镜像库,因此脱敏...

配置并管理实时同步任务

使用限制 实时数据同步任务仅支持使用独享数据集成资源组。实时数据同步任务暂不支持同步没有主键的表。创建实时同步任务 创建整库实时同步节点。配置资源组。设置同步来源和规则。在 数据来源 区域,选择要同步的数据源 类型 和 数据源 ...

SQL回放

其可做到秒级返回分析结果,还可提供直观的查询结果展示,例如实时数据报表、实时大屏等。前提条件 已使用数据传输服务DTS(Data Transmission Service)的数据迁移功能,将OLTP库 RDS MySQL、PolarDB MySQL版 的数据迁移至OLAP库 ...

核心能力

一站式大数据开发平台,提供一致性开发体验 一站式数据同步 支持离线/实时数据传输。周期同步任务调度统一管理。主流空间数据库全面支持同步汇聚(超图SDX+,ArcGIS SDE,PostGIS,Ganos)。自动灵活的数据探查 物理表预览和表数据自动探查...

配置并管理实时同步任务

使用限制 实时数据同步任务仅支持使用独享数据集成资源组。实时同步节点目前仅支持同步PolarDB、Oracle、MySQL数据源至MaxCompute。实时数据同步任务暂不支持同步没有主键的表。注意事项 当实时同步至MaxCompute数据源且使用临时AK进行同步...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 云数据库 RDS 数据库备份 DBS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用