管理缓存

通过将数据写回到UFS,可以保证如果Alluxio发生故障数据还是可恢复的。语法 alluxio fs persist示例:将Alluxio中 tmp 目录持久化到底层文件系统中。alluxio fs persist/tmp 返回如下信息。persisted file/tmp with size 46 setTtl 设置...

功能概述

数据发生故障后,无法在发生故障时定位到原因,可以通过智能压测功能,在克隆库上复现故障场景,定位故障原因。功能架构 智能压测的功能架构如下图所示:源数据库:将要进行大促、将要业务变更或者已经发生故障,需要进行流量捕获的数据...

什么是云数据库Redis版

标准版-双副本 系统工作时主节点(Master)和副本(Replica)数据实时同步,若主节点发生故障,系统会快速将业务切换至备节点,全程自动且对业务无影响,保障服务高可用性。集群版-单副本 单副本集群版实例采用集群架构,每个分片服务器...

立即备份

背景信息 物理备份:物理备份是指转储 OceanBase 的物理文件包含基线数据、日志归档数据等,一旦数据发生故障,可以利用这些文件进行数据库恢复。逻辑备份:逻辑备份是指数据库对象级备份,支持表、库两种维度的备份。库级备份时,针对...

流量回放和压测

此外,在数据发生故障且无法定位原因时,可以利用克隆库复现故障场景,以便更好地定位故障原因。前提条件 源数据库支持:RDS MySQL PolarDB MySQL版 说明 不支持 PolarDB MySQL版 的 企业版 单节点 实例。PolarDB-X 2.0。目标数据库实例...

智能压测

此外,在数据发生故障且无法定位原因时,可以利用克隆库复现故障场景,以便更好地定位故障原因。前提条件 源数据库支持:RDS MySQL PolarDB MySQL版 说明 不支持 PolarDB MySQL版 的 企业版 单节点 实例。PolarDB-X 2.0。目标数据库实例...

采集客户端数据的高可用方案

当Logstore A发生故障时,Logstore B的数据仍然实时可用。当Logstore B发生故障时,Logstore A的数据仍然实时可用。操作步骤:在日志服务控制台上,创建Project和Logstore。创建A地域的Project A和Logstore A。创建B地域的Project B和...

异地应用双活切流

场景四:故障>数据库故障 说明 部分数据库出现异常,将发生故障的主数据库切换到另一单元(地域)。a.选中想要切换的数据库,在展示框里,同一行代表同一数据库的主备。b.单击 下一步,进入 容灾切换预览,在预览页,可以看到数据库前后主...

源为PolarDB-X的功能规范和约束说明

警告 异常切流是指源实例或者源实例所在的数据中心发生故障时进行的切流操作。这类操作都是有损操作。在出现故障(如网络中断、机房批量设备故障或互联网数据中心IDC故障),且DTS任务存在延迟的情况下,此时如更新至目标库的最后一条数据...

源为PolarDB-X的功能规范和约束说明

警告 异常切流是指源实例或者源实例所在的数据中心发生故障时进行的切流操作。这类操作都是有损操作,例如导致数据不一致或任务失败。在出现故障(如网络中断、机房批量设备故障或互联网数据中心IDC故障),且DTS任务存在延迟的情况下,...

实时数据API

本文为您介绍什么是实时数据API,以及实时数据API的作用。实时数据业务流程。在实时数据业务场景中,最常见的链路是将实时采集的数据,通过实时计算初步清洗,实时写入数据至数据库,再对接BI工具实现数据的可视化分析。数据处理流程如下图...

设计原则

数据容灾是指在数据中心或服务器发生故障、灾难或意外情况时,能够保证数据的安全性和可用性的一系列措施和策略。数据容灾的目标是确保在不可避免的情况下,数据的完整性、可恢复性和可用性不受到严重影响,以保障业务的持续运行和数据的...

数据库高级特性管理

target_recovery_time_in_seconds 在发生故障时,数据库恢复所需的目标时间(秒)。默认值为60。compatibility_level 数据库与特定版本的兼容性级别。取值如下:100:Server 2008及更高版本。110:SQL Server 2012及更高版本。120:SQL ...

基本概念

RPO Recovery Point Objective(数据恢复点目标),指应用发生故障时预期的数据丢失量。例如,RPO=15 分钟,表示在应用发生故障时,最近 15 分钟的数据无法在云上恢复。RTO Recovery Time Objective(恢复时间目标),指故障发生时,在云...

代码逻辑场景

受影响的请求数 否 0 限制最多发生故障的请求总数,每生效一次故障计数加1,累计发生故障请求数超出设定值后,请求则不再发生故障。填写数值小于等于0时,则表示不限制。受影响的请求占比(%)否 0 限制发生故障的请求数占所有应该发生故障...

添加任务目录

在左侧导航栏,单击 图标,将鼠标悬停在 实时数据同步 上,单击 图标,选择 添加子级目录,为根目录添加子目录。在 类目属性设置 对话框,输入类目名称和类目描述,单击 确定。(可选)在左侧导航栏,单击 实时数据同步,将鼠标悬停在新建...

添加任务目录

在左侧导航栏,单击 图标,将鼠标悬停在 实时数据同步 上,单击 图标,选择 添加子级目录,为根目录添加子目录。在 类目属性设置 对话框,输入类目名称和类目描述,单击 确定。(可选)在左侧导航栏,单击 实时数据同步,将鼠标悬停在新建...

云数据库Redis版产品选型必读

跨地域容灾方案★由多个子实例构成全球分布式实例,所有子实例通过同步通道保持实时数据同步,由通道管理器负责子实例的健康状态监测、主从切换等等异常事件的处理,适用于异地灾备、异地多活、应用就近访问、分摊负载等场景。更多介绍,请...

应用场景

实时数据通道 1.1 接入多种异构数据并投递到下游多种大数据系统 通过数据总线,您可以实时接入APP、WEB、IoT和数据库等产生的异构数据,统一管理,并投递到下游的分析、归档等系统,构建清晰的数据流,让您更好的释放数据的价值。...

引擎简介

云原生多模数据库 Lindorm 流引擎面向实时数据处理场景,支持使用标准的SQL及熟悉的数据库概念完成一站式的实时数据处理,适用于车联网、物联网和互联网中常见的ETL、实时异常检测和实时报表统计等场景。本文介绍Lindorm流引擎的应用场景和...

上线实时任务

相关操作 操作 说明 下线实时任务 单个下线:在 实时数据同步 页面,单击目标实时任务 操作 列的 下线,在弹出对话框中单击 确定,可下线实时任务。批量下线:在 实时数据同步 页面,选择需要下线的任务,单击页面左下角 批量下线,可批量...

上线实时任务

相关操作 操作 说明 下线实时任务 单个下线:在 实时数据同步 页面,单击目标实时任务 操作 列的 下线,在弹出对话框中单击 确定,可下线实时任务。批量下线:在 实时数据同步 页面,选择需要下线的任务,单击页面左下角 批量下线,可批量...

什么是混合云容灾服务

RPO Recovery Point Objective(数据恢复点目标),指应用发生故障时预期的数据丢失量。例如,RPO=15 分钟,表示在应用发生故障时,最近 15 分钟的数据无法在云上恢复。RTO Recovery Time Objective(恢复时间目标),指故障发生时,在云...

实时数据消费概述

实时数据消费功能包含高速数据导入API和实时数据源消费两部分,可实现数据直接写入Segment(分片单元),避免通过COPY或INSERT方式造成的Master写入负载高的问题,也可实现使用 AnalyticDB PostgreSQL版 单产品直接消费Kafka数据。...

新建实时自定义源类型

Dataphin支持自定义实时数据源类型,您可以基于自定义的实时数据源类型,创建实时数据源实例、实时数据源类型的元表以及访问自定义实时数据源的Flink SQL任务,以满足实际数据需求开发。本文为您介绍如何自定义实时数据源类型。使用限制 ...

迁移或同步指定时间段内的数据

如果您想要将源HBase集群或源Lindorm实例中某个时间段的历史数据迁移至新的Lindorm实例,或想要同步实时数据到新Lindorm实例,可以在创建任务时添加相关时间参数,修改任务配置。本文介绍通过LTS控制台创建任务时配置迁移或同步时间范围的...

Dataphin支持的实时数据

在Dataphin实时计算引擎下,您可通过实时任务创建实时数据源对应的表类型。本文为您介绍Dataphin各实时计算引擎支持的实时数据源及对应的读写支持。Ververica Flink支持的实时数据源 存储类型 数据源类型 读 写 维表读 大数据存储 ...

新建实时自定义源类型

Dataphin支持自定义实时数据源类型,您可以基于自定义的实时数据源类型,创建实时数据源实例、实时数据源类型的元表以及访问自定义实时数据源的Flink SQL任务,以满足实际数据需求开发。本文为您介绍如何自定义实时数据源类型。使用限制 ...

应用场景

背景信息 作为流式计算引擎,Flink可以广泛应用于实时数据处理领域,例如ECS在线服务日志,IoT场景下传感器数据等。同时Flink还能订阅云上数据库RDS、PolarDB等关系型数据库中Binlog的更新,并利用DataHub、SLS、Kafka等产品将实时数据收集...

查看实时任务监控

在左侧导航栏,单击 图标,将鼠标悬停在 实时数据同步 上,单击 图标。在 实时数据同步 页面,单击目标实时任务 操作 列的 监控。跳转到 实时同步任务 页面,可查看实时任务运行详情,更多信息,请参见 查看实时同步任务详情。

查看实时任务监控

在左侧导航栏,单击 图标,将鼠标悬停在 实时数据同步 上,单击 图标。在 实时数据同步 页面,单击目标实时任务 操作 列的 监控。跳转到 实时同步任务 页面,可查看实时任务运行详情,更多信息,请参见 查看实时同步任务详情。

Dataphin支持的实时数据

在Dataphin实时计算引擎下,您可通过实时任务创建实时数据源对应的表类型。本文为您介绍Dataphin各实时计算引擎支持的实时数据源及对应的读写支持。Ververica Flink支持的实时数据源 存储类型 数据源类型 读 写 维表读 大数据存储 ...

构建数据仓库

DataWorks具有通过可视化方式实现数据开发、治理全流程相关的核心能力,本文将为您介绍DataWorks在构建云上大数据仓库和构建智能实时数据仓库两个典型应用场景下的应用示例。构建云上大数据仓库 本场景推荐的架构如下。适用行业:全行业...

概述

实时数据分析 实时数据分析指的是根据业务目标,从原始数据中抽取对应信息并整合的过程。例如,查看每天销量前10的商品、仓库平均周转时间、文档平均单击率和推送打开率等。实时数据分析则是上述过程的实时化,通常在终端体现为实时报表或...

什么是ETL

数据传输服务DTS提供的流式数据ETL(Extract Transform Load)功能是一种高效的实时数据加工工具。ETL支持通过可视化拖拉拽操作、Flink SQL语句配置任务,并结合DTS的高效流数据复制能力,可以实现流式数据的抽取、数据转换和加工、数据...

应用场景

实时数据流场景 DataFlow集群类型提供了Flink、Kafka、Paimon等服务,主要用于解决实时计算端到端的各类问题,广泛应用于实时数据ETL和日志采集分析等场景。通过采集程序将业务数据、日志和埋点数据等投递到EMR Kafka,利用Flink的实时计算...

流式ETL

数据传输服务DTS提供的流式数据ETL(Extract Transform Load)功能是一种高效的实时数据加工工具。ETL支持通过可视化拖拉拽操作、Flink SQL语句配置任务,并结合DTS的高效流数据复制能力,可以实现流式数据的抽取、数据转换和加工、数据...

应用场景

实时数据建模:提供了实时数据建模聚合表,以支持实时聚合能力。强大的引擎和优化器保证了数据库在实时数据建模时的高效性。实时更新:采用了delete-and-insert的实时更新策略,且在读取时无需进行主键合并,相较于采用了merge-on-read...

使用场景

实时数据处理 DMS任务编排可以设置定时任务,实现对实时数据的处理和分析。业务流程自动化 结合DMS任务编排的调度和依赖管理功能,可以实现业务流程的自动化处理,提高工作效率和数据处理的准确性。数据治理与数据管控 DMS任务编排提供了...

ETL工具支持概览

支持的ETL工具见下,可以同时参见更详细的同步方案列表 数据迁移及同步方案综述:数据传输服务(DTS):阿里云提供的实时数据同步服务,可以将其他数据源(RDS MySQL,ECS自建MySQL,PolarDB等)实时同步数据到 AnalyticDB PostgreSQL版,...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 数据传输服务 数据库备份 DBS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用