BigQuery数据

网络打通的具体方法可参考:配置资源组与网络连通。数据同步任务开发 BigQuery数据同步任务的配置入口和通用配置流程指导可参见下文的配置指导,详细的配置参数解释可在配置界面查看对应参数的文案提示。创建数据源 在进行数据同步任务开发...

Amazon Redshift数据

网络打通的具体方法可参考:配置资源组与网络连通。数据同步任务开发:Amazon Redshift同步流程指导 Amazon Redshift数据同步任务的配置入口和通用配置流程指导可参见下文的配置指导,详细的配置参数解释可在配置界面查看对应参数的文案...

配置资源组与网络连通

数据同步任务配置前,您需要确保用于执行同步任务的独享数据集成资源组您将要同步的数据来源端目的端数据库的网络连通性,您可以根据数据库所在网络环境,选择合适的网络解决方案来实现网络连通。本文为您介绍数据库在不同网络环境中...

通过向导模式配置离线同步任务

数据集成提供向导式的开发引导,您无需编写任何代码,通过在界面勾选数据来源去向,并结合DataWorks调度参数,实现将源端单表或分库分表的全量或增量数据周期性同步至目标数据表。本文为您介绍向导模式配置离线同步任务的常规配置,各...

新增和使用独享数据集成资源组

若您需要进一步了解各网络环境下数据源与独享资源组的网络联通,详情请参见:配置资源组与网络连通。单击 完成。查看资源组使用率与资源组运维监控 您可在DataWorks管理控制台查看资源组的使用与排队情况,并支持通过运维中心的智能监控...

通过DataWorks导入

详情请参见:配置资源组与网络连通。操作步骤 配置同步的源端数据库读插件。具体操作,请参见 HDFS Reader。配置同步的目标端数据库写插件。具体操作,请参见 AnalyticDB for MySQL 3.0 Writer。配置同步任务。具体操作,请参见 通过向导...

通过DataWorks导入数据

详情请参见:配置资源组与网络连通。操作步骤 配置同步的源端数据库读插件。具体操作,请参见 DRDS Reader。配置同步的目标端数据库写插件。具体操作,请参见 AnalyticDB for MySQL 3.0 Writer。配置同步任务。具体操作,请参见 通过向导...

跨阿里云主账号访问

您在跨账号进行数据同步任务之前,需要设置并确保执行任务的独享数据集成资源组,源端及目标端数据库之间的网络连通性。本文将为您介绍在使用跨阿里云账号时,数据DataWorks工作空间之间的网络连通操作。背景信息 网络连通方案选择取...

同阿里云主账号访问

详情请参见 配置资源组与网络连通。场景一:DataWorks与数据源处于同地域时 DataWorks工作空间与数据源同阿里云主账号、同地域时,您可以通过如下两种方案进行网络打通。方案1:将DataWorks资源组与数据源置于同一VPC内 资源组侧,新增专有...

使用DataWorks

测试资源组与数据来源、数据去向之间的网络连通性,确认独享数据集成资源组与数据网络已打通。然后单击 下一步。配置任务。配置数据来源去向。在 数据来源 和 数据去向 区域,配置任务读取写入的表,及同步的数据范围。详情请参见 ...

通过脚本模式配置离线同步任务

当您需要实现更精细化的配置管理时,您可以使用脚本模式配置离线同步任务,通过编写数据同步的JSON脚本并结合DataWorks调度参数使用,将源端单表或分库分表的全量或增量数据周期性同步至目标数据表。本文为您介绍脚本模式配置离线同步任务...

数据上传

配置数据源与资源组网络连通,请参见 配置资源组与网络连通。配置独享资源组绑定的归属工作空间,请参见 使用独享调度资源组、使用独享数据集成资源组。计费说明 数据上传会产生引擎费用,由引擎侧收取。收费详情请参见相应引擎文档的计费...

独享资源组模式

如果做过网络打通,即存在数据库和DataWorks不在同一个region、数据库和DataWorks不在同一个阿里云账号、数据库在本地IDC环境下等需要网络打通的情况,请为独享绑定数据库已经打通的VPC,请参见 新增和使用独享数据集成资源组,再在绑定...

Kafka单表实时入湖OSS(HUDI)

准备独享数据集成资源组并与数据源网络连通 在进行数据同步前,需要完成您的独享数据集成资源组和数据源的网络连通,详情请参见 配置资源组与网络连通。说明 OSS数据源在下一步新增OSS数据源时,指定Endpoint地址,即可实现OSS数据源与独享...

ClickHouse整库数据离线同步至Hologres

准备独享数据集成资源组并与数据网络连通 在进行数据同步前,需要完成您的独享数据集成资源组和数据源的网络连通,详情请参见 配置网络连通。如果您的独享数据集成资源组和数据源属于同一地域,可使用同地域VPC内网连通独享资源组和数据...

通用参考:添加路由

如果添加路由后,仍然存在网络连通问题,请根据如下因素进行排查:如果独享资源组访问的是本地IDC数据源,或者跨账号访问数据源,请先参考 配置资源组与网络连通 进行网络连通,再为独享资源组绑定与数据库网络连通的VPC。如果您的数据源已...

DataStudio侧实时同步任务配置

详情请参见:配置资源组与网络连通。进入数据开发 实时同步任务配置入口在数据开发模块,您需要前往数据开发进行创建。进入数据开发页面。登录 DataWorks控制台,单击左侧导航栏的 数据建模与开发>数据开发,在下拉框中选择对应工作空间后...

离线同步任务调优

跨云、跨区域同步数据时,建议网络打通后走内网进行同步,网络连通解决方案详情请参见:配置资源组与网络连通。检查数据库负载情况。限制同步速度 数据集成同步任务默认不限速,任务将在所配置的并发数的限制上以最高能达到的速度进行同步...

Kafka实时ETL同步至Hologres

准备独享数据集成资源组并与数据网络连通 在进行数据同步前,需要完成您的独享数据集成资源组和数据源的网络连通,详情请参见 配置网络连通。说明 KafkaHologres支持的网络类型如下:Kafka:指定VPC网络、公网。Hologres:指定VPC网络、...

配置并管理实时同步任务

详情请参见:配置资源组与网络连通。数据源环境已准备完成:您可以基于您需要进行的同步配置,在同步任务执行前,授予数据源配置的账号在数据库进行相应操作的权限。详情请参见:数据库环境准备概述。使用限制 实时数据同步任务仅支持使用...

配置并管理实时同步任务

详情请参见:配置资源组与网络连通。数据源环境已准备完成:您可以基于您需要进行的同步配置,在同步任务执行前,授予数据源配置的账号在数据库进行相应操作的权限。详情请参见:数据库环境准备概述。使用限制 实时数据同步任务仅支持使用...

离线同步任务运维

说明 修改资源组前,请确保待切换的资源组与数据网络已经连通,避免由于资源组与数据网络不通导致任务执行失败。操作环境 支持的切换操作 界面入口 切换生产环境资源组 批量切换 进入 运维中心>周期任务 界面设置。勾选需要修改资源组...

配置并管理实时同步任务

详情请参见:配置资源组与网络连通。数据源环境已准备完成:您可以基于您需要进行的同步配置,在同步任务执行前,授予数据源配置的账号在数据库进行相应操作的权限。详情请参见:数据库环境准备概述。使用限制 实时数据同步任务仅支持使用...

通用参考:按量付费转包年包月

若资源组切换后由于网络问题导致任务失败,请参考 配置资源组与网络连通 对资源组进行网络配置。切换任务配置时的默认资源组 您需要进入数据开发界面,在 设置>调度设置 中修改任务使用的默认资源组,修改后,后续新建的任务将默认使用该...

元数据采集

DataWorks数据地图为您提供 元数据采集 功能,方便您将不同系统中的元数据进行统一汇总管理,您可以在数据地图查看从各数据源汇集而来的元数据信息。本文为您介绍如何创建采集器,将各数据源的元数据信息汇集至DataWorks。前提条件 您需要...

概述

全球数据网络(Global Database Network,简称GDN)是由分布在同一个国家内多个地域的多个 PolarDB 集群组成的网络。...相关视频 GDN 相关文档 技术架构 应用场景 创建删除全球数据网络 管理从集群 连接全球数据网络

未来规划

数据库的未来发展趋势可以总结为以下四点:产品架构与技术创新:云原生+分布式(弹性、高可用)。架构上分布式共享存储、存储计算分离,云原生架构+Shared Nothing分布式架构,满足弹性、高可用、水平拓展的能力。数据挑战:多模,结构化与...

独享调度资源组

网络连通方案 独享调度资源组其他资源组类似,本质上为一组阿里云ECS实例,在进行数据开发等任务运行时,需保障资源组与数据源之间的网络是连通的,且不会因为白名单等特殊安全访问设置阻断资源组与数据源之间的网络连通性。说明 如果独...

独享数据集成资源组

详情请参见:配置资源组与网络连通。网络连通方案 数据源网络环境 网络连通方案 数据源处于公网环境中 数据源与独享资源组绑定的VPC网络直连即可连通。数据源处于VPC网络中,且与独享资源组在 同一地域 建议独享资源组与数据源绑定同一VPC...

系统管理

详情请参见 配置资源组与网络连通。数据上传:引擎限制:仅支持将数据上传至MaxCompute、EMR Hive、Hologres引擎。资源组限制:数据上传功能需指定调度资源组和数据集成资源组。上传数据至MaxCompute引擎:支持使用公共资源组及独享资源组...

创建Hologres数据

若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据Dataphin网络互通。具体操作,请参见 数据源白名单配置。操作步骤 在Dataphin首页,单击顶部菜单栏 管理...

合规&认证

个人信息 甲乙双方均应严格遵守网络安全与数据保护相关法律法规的要求,其中,用户使用瓴羊服务收集、储存、处理、使用的个人信息和实施这些数据有关的活动,须遵循合法、正当、必要原则,且应当遵守相关法律法规、瓴羊产品服务协议和瓴...

创建PostgreSQL数据

前提条件 若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据Dataphin网络互通。具体操作,请参见 数据源白名单配置。权限说明 Dataphin仅支持 超级管理员、...

创建Microsoft SQL Server数据

前提条件 若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据Dataphin网络互通。具体操作,请参见 数据源白名单配置。使用限制 Dataphin仅支持 超级管理员、...

创建ClickHouse数据

前提条件 若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据Dataphin网络互通。具体操作,请参见 数据源白名单配置。权限说明 Dataphin仅支持 超级管理员、...

数据集成概述

数据集成支持您根据数据源所在网络环境,选择对应的网络同步任务,关于网络连通方案选择与配置资源组与数据源的网络连通,详情请参见:配置资源组与网络连通。基本概念 并发数 并发数是数据同步任务中,可以从源并行读取或并行写入数据存储...

创建MySQL数据

前提条件 若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据Dataphin网络互通。具体操作,请参见 数据源白名单配置。使用限制 Dataphin仅支持 超级管理员、...

使用限制

数据备份恢复 仅支持通过云数据库MongoDB工具(mongodump和mongorestore)备份恢复数据库,具体请参见 使用MongoDB工具备份恢复MongoDB Serverless版实例。数据安全性 仅支持设置白名单,设置方法请参见 设置白名单。不支持设置SSL...

创建Redis数据

前提条件 若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据Dataphin网络互通。具体操作,请参见 附录:数据源白名单配置。权限说明 Dataphin仅支持 超级...

创建PolarDB数据

前提条件 若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据Dataphin网络互通。具体操作,请参见 数据源白名单配置。权限说明 Dataphin仅支持 超级管理员、...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 云数据库 RDS 云数据库 Redis 版 云服务器 ECS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用