TRUNCATE TABLE 功能限制 不兼容触发器 当同步对象为整个库,且库中的触发器(TRIGGER)会更新库内某个表时,可能导致源和目标库的数据不一致。相关解决方案请参见 源库存在触发器时如何配置同步作业。RENAME TABLE限制 RENAME TABLE操作...
当源端删除其中一条数据时,由于匹配条件是 where c1=1 and c2=2,会导致目标端的两条 c1=1 和 c2=2 的数据均被删除,导致源端和目标端的数据不一致。对于 tsvector 类型字段的迁移,如果涉及反向增量至 RDS PostgreSQL 实例,在 OceanBase...
TRUNCATE TABLE 功能限制 不兼容触发器 当同步对象为整个库,且库中的触发器(TRIGGER)会更新库内某个表时,可能导致源和目标库的数据不一致。相关解决方案请参见 源库存在触发器时如何配置同步作业。RENAME TABLE限制 RENAME TABLE操作...
但在实际操作中,即使表的属性被设置成IMMUTABLE,Lindorm也并不会禁止更新和删除行为,但该类操作会造成索引表和主表的数据不一致,进而导致查询命中索引和命中主表的结果不一致。建议您重新构建索引表,并停止更新或删除属性为IMMUTABLE...
TRUNCATE TABLE 功能限制 不兼容触发器 当同步对象为整个库,且库中的触发器(TRIGGER)会更新库内某个表时,可能导致源和目标库的数据不一致。相关解决方案请参见 源库存在触发器时如何配置同步作业。RENAME TABLE限制 RENAME TABLE操作...
不兼容触发器 当同步对象为整个库,且库中的触发器(TRIGGER)会更新库内某个表时,可能导致源和目标库的数据不一致。相关解决方案请参见 源库存在触发器时如何配置同步作业。RENAME TABLE限制 RENAME TABLE操作可能导致同步数据不一致。...
不兼容触发器 当同步对象为整个库,且库中的触发器(TRIGGER)会更新库内某个表时,可能导致源和目标库的数据不一致。相关解决方案请参见 源库存在触发器时如何配置同步作业。RENAME TABLE限制 RENAME TABLE操作可能导致同步数据不一致。...
如果目标端字段类型的精度小于源端字段类型的精度,则可能发生截断现象,导致源端和目标端的数据不一致。如果您变更目标端的唯一索引,需要重启数据同步项目,否则可能存在数据不一致的问题。节点之间的时钟不同步,或者电脑终端和服务器...
数据同步实例的源和目标端数据不一致,可能原因有哪些?数据不一致的可能原因如下:配置任务时没有清空目标端数据,且目标端有存量数据。配置任务时只选择了增量同步模块,没有选择全量同步模块。配置任务时只选择了全量同步模块,没有选择...
一般符合业务预期,可以解释数据不一致原因即可。读端数据一致性排查 数据集成的Reader插件用来连接具体的源头数据存储,抽取出待同步的数据并投递给同步写端。每一个存储类型都会有对应的Reader插件,Reader插件会根据用户配置的数据抽取...
数据校验 增量达到准实时同步后,系统自动做全数据校验,并且订正因为同步延迟造成的不一致数据。应用停写和路由切换 校验完成后,并且增量依然维持准实时同步,业务选定时间进行切换,为确保数据严格一致,建议应用停服(也可以不停,但...
否则可能会导致请求路由到只读节点和主节点查到的数据不一致。当您使用应用连接池建立URL链接时,为了防止连接池在网络或其它非预期场景下丢包导致应用连接池hang住的问题,建议在URL链接中增加 connectTimeout 和 socketTimeout 参数。...
A:这是因为主表和索引表的冷数据归档过程是独立的,并且归档主表和索引表冷数据的操作是周期性触发的,导致了主表和索引表滞留在热存储的数据不一致,进而出现查询到的冷数据不一致的现象。您可以在查询条件中添加热数据的时间范围,避免...
否则数据传输可能因为无法获取增量日志导致数据迁移项目失败,甚至导致源端和目标端数据不一致。支持的源端和目标端实例类型 下表中,OceanBase 数据库 Oracle 租户简称为 OB_Oracle。源端 目标端 Oracle(VPC 内自建数据库)OB_Oracle...
否则数据传输可能因为无法获取增量日志导致数据迁移项目失败,甚至导致源端和目标端数据不一致。支持的源端和目标端实例类型 下表中,OceanBase 数据库 Oracle 租户简称为 OB_Oracle。源端 目标端 OB_Oracle(OceanBase 集群实例)Oracle...
对普通表和分区表执行冷数据归档操作后,您可以通过以下方法查询归档后的冷数据:普通表:执行冷数据归档后,查询冷数据的方法和查询热数据的方法一致,不需要修改访问方式。分区表:执行冷数据归档后,查询冷数据的操作方法请参见 查询...
若集群中某些库表的数据几乎没有更新、插入和修改操作,且读取频率非常低,如果您有降本需求,可以使用 PolarDB MySQL版 提供的冷数据归档功能,将这部分数据转存至低成本的OSS上存储,以降低数据存储成本。本章节介绍了冷数据归档方法、...
新建数据字典并物理化 通过新建并维护数据模型中使用的数据字典,制定并管理平台遵循的统一数据标准,为数据元、指标、维度引用数据字典提供数据基础,帮助平台管理者和数据管理者管控治理后数据的一致性和数据质量。具体操作,请参见 新建...
新建数据字典并物理化 通过新建并维护数据模型中使用的数据字典,制定并管理平台遵循的统一数据标准,为数据元、指标、维度引用数据字典提供数据基础,帮助平台管理者和数据管理者管控治理后数据的一致性和数据质量。具体操作,请参见 新建...
通过统一的数据资产目录,沉淀数据供给方生产的各类型数据,帮助资产运营管理者进行可共享的数据资产的注册、编目分类和公开运营,帮助数据使用者快速了解和获取业务需要的高质量数据资产,促进数据资产发挥更大的业务价值。同时,通过数据...
查看逻辑表和物理表一致性 通过查看逻辑表和物理表一致性能够快速对比逻辑表和物理表的一致性,以便及时更新物理表,保证逻辑模型和物理表的一致性。具体操作,请参见 查看逻辑表和物理表一致性。查看逻辑表日志 通过查看逻辑表的日志信息...
查看逻辑表和物理表一致性 通过查看逻辑表和物理表一致性能够快速对比逻辑表和物理表的一致性,以便及时更新物理表,保证逻辑模型和物理表的一致性。具体操作,请参见 查看逻辑表和物理表一致性。查看逻辑表日志 通过查看逻辑表的日志信息...
您可以在同步或迁移实例的 高级配置 阶段选择相应的 数据校验方式,或者单独配置数据校验任务,以便及时发现数据不一致的问题。注意事项 经典网络的数据库实例暂不支持增量数据校验功能。开启多表归并的实例暂不支持数据校验功能。运行状态...
通过设计标准数据元、数据指标、维度和维度属性,对关键业务对象以及属性和值域进行定义,制定并管理平台遵循的统一数据标准,管控数据的一致性和数据质量。模型标准设计 逻辑表命名规则:支持对逻辑表命名标准的规范设计,可基于模型命名...
提供数据同步、数据查询、数据标准、数据建模、数据加工、质量评估、业务模型构建、资产管理、数据服务等功能,为智能数据应用持续稳定供给全量、标准、干净、智能的数据资源。数据资源平台覆盖数据同步、数据标准建模及数据质量检查、数据...
通过数据标准的管理功能,模型设计者可通过设计标准数据元素,定义关键业务对象、业务对象属性及值域,规范标准数据字典,制定并管理平台遵循的统一数据标准,帮助平台管理者和数据管理者管控治理后数据的一致性和数据质量。模型标准设计 ...
通过数据标准的管理功能,模型设计者可通过设计标准数据元素,定义关键业务对象、业务对象属性及值域,规范标准数据字典,制定并管理平台遵循的统一数据标准,帮助平台管理者和数据管理者管控治理后数据的一致性和数据质量。模型标准设计 ...
数据字典帮助平台管理者和数据管理者管控治理后数据的一致性和数据质量,创建并维护逻辑表中使用的数据字典,方便数据元引用数据字典来规范数据元的值域范围,保证关联了字段标准的表及字段可以自动设置数据质量规则,规范数据质量,本章节...
若待同步的数据库中包含TTL索引,则可能会由于源库和目标库时区、时钟等的不一致,导致数据不一致。其他限制 目标端实例为分片集群架构时:需清除孤立文档,否则将影响同步性能。若在同步过程遇到_id 冲突的文档,则可能导致数据不一致或...
数据作为客户重要的信息资产,需要得到有效保护,确保有一个明确定义的、技术可实现的数据分类与保护策略,解决业务逻辑在分类和保护级别上不一致的问题。作为数据保护的基础,数据安全保护应先聚焦于自动化的数据分类。数据分类使用预先...
若待同步的数据库中包含TTL索引,则可能会由于源库和目标库时区、时钟等的不一致,导致数据不一致。源和目标库需为相同架构的 云数据库MongoDB版,即自建MongoDB或不同架构的MongoDB不支持双向同步。其他限制 建议源和目标库的MongoDB的...
若待同步的数据库中包含TTL索引,则可能会由于源库和目标库时区、时钟等的不一致,导致数据不一致。源和目标库需为相同架构的 云数据库MongoDB版,即自建MongoDB或不同架构的MongoDB不支持双向同步。其他限制 建议源和目标库的MongoDB的...
源库的操作限制:如仅执行全量数据迁移,请勿向源实例中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择全量数据迁移和增量数据迁移。源库单机版Redis迁移到目标库集群版Redis的操作限制:由于集群cluster只...
如仅执行全量数据迁移,请勿向源实例中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择结构迁移、全量数据迁移和增量数据迁移。PolarDB分布式版 需兼容MySQL 5.7版本。其他限制 执行数据迁移前需评估源库和...
如仅执行全量数据迁移,请勿向源实例中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择结构迁移、全量数据迁移和增量数据迁移。单独更新大文本字段场景不支持,任务会失败。其他限制 执行数据迁移前需评估源...
若待迁移的数据库中包含TTL索引,则可能会由于源库和目标库时区、时钟等的不一致,导致数据不一致。其他限制 目标端实例为分片集群架构时:需清除孤立文档,否则将影响迁移性能。若在迁移过程遇到_id 冲突的文档,则可能导致数据不一致或...
如仅执行全量数据迁移,请勿向源实例中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择结构迁移、全量数据迁移和增量数据迁移。其他限制 建议源和目标 PolarDB MySQL版 的MySQL版本保持一致,以保障兼容性。...
如仅执行全量数据迁移,请勿向源实例中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择结构迁移、全量数据迁移和增量数据迁移。其他限制 建议源和目标库的MySQL版本保持一致,以保障兼容性。执行数据迁移前需...
如为全量迁移和增量迁移任务,DTS要求源数据库的数据日志至少保留7天以上(您可在全量迁移完成后将数据日志保存时间设置为24小时以上),否则DTS可能因无法获取数据日志而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。...
源库的操作限制:如仅执行全量数据迁移,请勿向源实例中写入新的数据,否则会导致源和目标数据不一致。为实时保持数据一致性,建议选择全量数据迁移和增量数据迁移。源库单机版Redis迁移到目标库集群版Redis的操作限制:由于集群cluster只...