[帮助文档] 如何使用数据传输服务DTS将数据从PolarDB-X1.0迁移至Elasticsearch

本文介绍如何使用数据传输服务DTS(Data Transmission Service)将数据从PolarDB-X 1.0迁移至Elasticsearch。

[帮助文档] 使用DTS将数据从PolarDB-X 1.0迁移至DataHub

本文介绍如何使用数据传输服务DTS(Data Transmission Service)将数据从PolarDB-X 1.0迁移至DataHub。

[帮助文档] 当目标库对象数据不为空时如何处理

本文介绍在配置DTS同步或迁移任务过程中,预检查阶段检测出目标库对象不为空时的处理方法。

数据传输dts后台,哪儿可以看到每个小时源端产生了多少条数据,目标端每小时消费了多少条数据呢?

数据传输dts后台,哪儿可以看到每个小时源端产生了多少条数据,目标端每小时消费了多少条数据呢?

数据传输DTS迁移一批数据,需要在给源数据做一下处理,加一条sql后在导到目标库里 。请问怎么操作?

我的源库是我们本地的专线,目标库是RDS 都是mysql的5.7 然后我们需要导一批数据到RDS,但是这批数据需要在迁移过程中 先用sql对源数据做一次类似筛选一样的操作,处理后的数据在导入到目标库。我们也有用datax这个工具 他的就可以在导数据的时候执行一下sql语句,但是datax太慢了。就想...

数据传输DTS 订阅拿到增量数据后我们会写入到目标库,后续全量同步执行到这里的时候会不会出错?

数据传输DTS 订阅拿到增量数据后我们会写入到目标库,这样的话我们就会提前写入一些全量同步会处理的数据,后续全量同步执行到这里的时候会不会出错?

数据传输DTS详细报错信息:将数据写入目标库异常,正在重试,重试了151次,这个报错帮忙看下 ?

数据传输DTS详细报错信息:将数据写入目标库异常,正在重试,重试了151次,重试了1579s,异常重试原?这个报错帮忙看下 处理下【UID】:1089915948646221【Job ID】:olv12mlpi8u09hu【任务名称】:BI数据库迁移-2-全量【所有报错信息】: CODE:- 错误概...

[帮助文档] 如何使用Kafka客户端消费订阅数据

新版数据订阅支持使用0.11版本至2.7版本的Kafka客户端消费订阅数据,DTS为您提供了Kafka客户端Demo,本文将介绍该客户端的使用说明。

[帮助文档] 如何将数据传输服务DTS中的数据快速导入至云消息队列

本文介绍如何在云消息队列 RabbitMQ 版控制台创建消息流入任务,将数据传输服务DTS中的数据快速导入至云消息队列 RabbitMQ 版。

DTS增量同步 数据有更新 目标库会更新么?

DTS增量同步 数据有更新 目标库会更新么?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

相关电子书
更多
DTS助力企业快速复制阿里巴巴异地多活架构
DTS控制台一本通
立即下载 立即下载
相关实验场景
更多