添加ClickHouse数据源

网络 数据源可选的网络类型。说明 当前仅支持外网访问。域名 连接数据库的地址。重要 该地址是DataV服务器能够通过公网或阿里云部分Region内网访问您数据库的域名或IP地址。端口 数据库设置的端口。用户名 登录数据库的用户名。密码 登录...

数据接入概述

功能 设备数据源 云产品数据源 IoT孪生引擎数据源 API数据源 本地上传数据源 数据解析 支持 支持 不支持 支持 支持 冷数据存储 支持 支持 支持 支持 支持 数据指标 支持 不支持 不支持 不支持 不支持 分析洞察 支持 支持 支持 不支持 支持 ...

MySQL节点

访问公网或VPC网络的MySQL数据源,请选择与MySQL数据源网络连通的调度资源组,作为周期调度任务使用的资源组。详情请参见 配置资源组与网络连通。提交并发布节点任务。单击工具栏中的 图标,保存节点。单击工具栏中的 图标,提交节点任务。...

元数据采集

如果数据源未开启白名单限制,请参考 资源组操作及网络连通 文档进行数据源网络打通。采集计划 包括 手动采集、每月、每周、每天 及 每小时。根据不同的执行周期,生成不同的执行计划,在相应执行计划的时间内,对目标数据源进行元数据采集...

添加ClickHouse数据源

网络 数据源可选的网络类型。域名 连接数据库的地址。重要 该地址是DataV服务器能够通过公网或阿里云部分Region内网访问您数据库的域名或IP地址。端口 数据库设置的端口。用户名 登录数据库的用户名。密码 登录数据库的密码。数据库 单击 ...

约束和限制

目录下面采样最新和最老的文件,每个文件读取前1000行 元数据发现SLS数据源发现历史投递数据 如果投递中途修改了分区格式,不会发现修改前的数据 一键建仓/多库合并支持的数据源网络类型 VPC 一键建仓/多库合并支持的数据源 PolarDB MySQL ...

DLA Presto CU版本快速入门

配置数据源网络 说明 如果需要连接您VPC内的数据源(如VPC内的RDS、AnalyticDB等),您需要配置数据源网络,如不需要连接,忽略此步骤即可。在配置数据源网络前,您需要授予DLA账户访问您VPC相关API的权限,详细操作步骤请参见 配置数据源...

数据处理

数据导入后,GDB Automl提供数据解析器对数据进行解析,可以自动配置解析数据源解析器(支持CSV、ARFF、XLS、XLSX、ORC等多种数据格式的解析)。在 数据解析器 页面,选择导入数据对应的 解析器、分离、列标题 和 选项。单击 解析 以生成...

独享调度资源组

数据源处于经典网络中 独享资源组处于阿里云VPC网络,如果数据源处于经典网络环境中,则数据源与独享资源组间网络无法连通,建议您将数据源迁移至VPC网络中。白名单配置 如果数据源设置有白名单限制访问地址时,您需要将独享资源组的访问...

使用DataWorks

测试资源组与数据来源、数据去向之间的网络连通性,确认独享数据集成资源组与数据源网络已打通。然后单击 下一步。配置任务。配置数据来源与去向。在 数据来源 和 数据去向 区域,配置任务读取与写入的表,及同步的数据范围。详情请参见 ...

DataWorks on EMR Serverless StarRocks最佳实践

DataWorks支持StarRocks数据源,通过数据源对接EMR Serverless StarRocks,可实现EMR Serverless StarRocks的数据集成、开发、分析、数据服务等功能。本文为您介绍EMR Serverless StarRocks在DataWorks上的操作流程。背景信息 了解EMR ...

数据传输作业:数据集成

在配置同步任务前,您需要确保数据集成资源组与您将同步的数据源网络环境已经连通,详情请参见 配置资源组与网络连通。实时同步 DataWorks提供的实时数据同步功能,使用单表或整库同步方式,将源端数据库中部分或全部表的数据变化实时同步...

通过DataWorks导入

独享数据集成资源组与数据源网络已打通。详情请参见:配置资源组与网络连通。操作步骤 配置同步的源端数据库读插件。具体操作,请参见 HDFS Reader。配置同步的目标端数据库写插件。具体操作,请参见 AnalyticDB for MySQL 3.0 Writer。...

独享数据集成资源组

数据源处于经典网络中 独享资源组处于阿里云VPC网络,如果数据源处于经典网络环境中,则数据源与独享资源组间网络无法连通,建议您将数据源迁移至VPC网络中。白名单配置 如果数据源设置有白名单限制访问地址时,您需要将独享资源组的访问...

跨阿里云主账号访问

选择已与数据源网络联通的资源组,单击 连通状态 列 测试连通性,若连通状态为 可连通 时,表示连通成功。相关文档 配置资源组与网络联通,详情请参见 配置资源组与网络连通。购买带宽包并创建跨地域连接,详情请参见 使用带宽包。跨地域...

常见问题

PolarDB数据源网络联通性测试失败怎么办?Oracle数据源网络联通性测试失败怎么办?MySQL数据源网络联通性测试失败怎么办?实时任务,运行报错:...

ClickHouse整库数据离线同步至Hologres

准备独享数据集成资源组并与数据源网络连通 在进行数据同步前,需要完成您的独享数据集成资源组和数据源网络连通,详情请参见 配置网络连通。如果您的独享数据集成资源组和数据源属于同一地域,可使用同地域VPC内网连通独享资源组和数据...

数据服务入门

步骤一:创建数据源并配置网络连通性 使用数据服务创建API前,您需将数据库或数据仓库添加为DataWorks的数据源,并保障数据服务资源组与您的目标数据源网络连通,以便调用API时DataWorks可成功访问数据源。说明 DataWorks工作空间将集群或...

配置数据源网络

本文主要介绍Serverless Spark如何配置数据源网络来访问用户VPC网络中的数据。这些数据包括RDS系列、ADB系列、PolarDB系列、MongoDB、Elasticsearch、HBase、E-MapReduce、Kafka以及用户在ECS上自建的各种数据服务等。背景信息 Serverless ...

常见问题

PolarDB数据源网络联通性测试失败怎么办?MySQL数据源网络联通性测试失败怎么办?实时任务,运行报错:com.alibaba.otter.canal.parse.exception.PositionNotFoundException: can't find start position for XXX 实时任务,运行报错:...

全增量同步任务常见问题

PolarDB数据源网络联通性测试失败怎么办?OceanBase数据源网络联通性测试失败怎么办?MySQL数据源网络联通性测试失败怎么办?全增量实时至MaxCompute时,数据源被置灰了没法选择怎么办?实时任务,运行报错:...

系统管理

系统管理中的配置仅在本租户的当前地域生效,并且您需确保SQL查询、数据上传任务使用的数据源和资源组网络连通。详情请参见 配置资源组与网络连通。数据上传:引擎限制:仅支持将数据上传至MaxCompute、EMR Hive、Hologres引擎。资源组限制...

产品架构

数据源地址动态适配 对于数据订阅及同步链路,容灾系统还会监测数据源的连接地址切换等变更操作,一旦发现数据源发生连接地址变更,它会动态适配数据源新的连接方式,在数据源变更的情况下,保证链路的稳定性。数据迁移工作原理 数据迁移...

通过向导模式配置离线同步任务

数据源与资源组网络不通,请参考界面提示或文档进行网络连通配置。详情请参见:配置资源组与网络连通。步骤三:配置数据来源与去向 在选择数据源区域,配置任务读取与写入的表,及同步的数据范围。重要 各插件配置存在一定差异,以下内容...

通过脚本模式配置离线同步任务

数据源与资源组网络不通,请参考界面提示或文档进行网络连通配置。详情请参见:配置资源组与网络连通。步骤三:转脚本模式并导入模板 单击工具栏中的转换脚本图标。如果脚本还未配置,您可以通过单击工具栏中的 图标,根据界面提示快速...

使用公共资源组

数据源网络环境 是否支持访问 数据源处于公网环境 支持 数据源处于经典网络 支持 数据源处于VPC网络 不支持 公共数据集成(调试)资源组 公共数据集成(调试)资源组仅保证支持公网访问能力。白名单设置 公共调度资源组为您提供任务安全...

产品功能

数据解析 GDB Automl将导入和上传的数据进行自动解析,您可以自动配置解析数据源解析器(支持CSV、ARFF、XLS、ORC等多种数据格式的解析),解析后可查看数据的样本量,并查看样本特征摘要,解析特征分布情况。数据切分 支持按照自定义...

网络连通解决方案

添加数据源时需要根据数据源所在网络环境,通过对应的网络解决方案,实现Dataphin与数据源网络连通。本文为您介绍数据源在不同网络环境中与Dataphin的网络连通方案。网络连通方案 根据数据源所在的网络环境,在下图中选择对应的网络连通...

数据解析概述

物联网平台的数据服务提供数据解析功能,通过数据解析对设备数据或导入的API数据源的数据进行解析和预处理后,将数据流转到业务服务器,或以表的形式存储于物联网平台。功能说明 您可在物联网平台控制台的 数据服务>数据解析 页面,创建和...

配置API数据源

重要 如果API数据源已应用于数据解析的源定义,删除API数据源将同时删除对应数据解析数据源,请谨慎操作。更多信息,请参见 配置源定义。后续步骤 API数据源创建后,您可以使用数据解析功能,进一步处理、分析和利用数据。更多信息,请...

数据源概述

数据源权限管控 完成数据源配置后,您可以对数据源进行分享与权限管控。DataWorks支持您在数据源管理页面,分享数据源权限给相应的工作空间或个人,并进入被分享的工作空间查看该数据源。您可以对数据源设置 可编辑、可查看 等权限控制。...

创建AnalyticDB for PostgreSQL数据源

前提条件 若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据源与Dataphin网络互通。具体操作,请参见 数据源白名单配置。权限说明 Dataphin仅支持 超级管理员、...

同阿里云主账号访问

在进行数据同步前,您需要确保用于执行同步任务的独享数据集成资源组与您将要同步的数据来源端与目的端数据源网络连通性。本文为您介绍数据源与DataWorks工作空间同阿里云主账号时如何进行网络连通。背景信息 网络连通方案选择取决于数据...

通过DataWorks导入数据

已完成数据集成资源组与数据源网络连通。详情请参见:配置资源组与网络连通。操作步骤 新增RDS SQL Server数据源。具体操作,请参见 配置SQLServer数据源。新增AnalyticDB MySQL数据源。具体操作,请参见 配置AnalyticDB for MySQL 3.0...

新建 ADB 数据源

配置好数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建云原生数据仓库 AnalyticDB MySQL 版(简称 ADB)数据源。背景信息 ADB 的基本介绍请参见 基础数据类型。ADB 的建表、分区表和分布表的详情请参见 ...

新建 PolarDB-X 2.0 数据源

配置好数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 PolarDB-X 2.0 数据源。背景信息 云原生数据库 PolarDB 分布式版(简称 PolarDB-X)是由阿里巴巴自主研发的云原生分布式数据库,为您提供高吞吐、大...

新建 PostgreSQL 数据源

新建数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 PostgreSQL 数据源。前提条件 已创建 RDS PostgreSQL 实例。详情请参见 创建 RDS PostgreSQL 实例。重要 数据传输不支持 Serverless 模式实例和只读实例...

新建 PolarDB-X 1.0 数据源

配置好数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 PolarDB 数据源。背景信息 PolarDB-X 1.0 是由阿里巴巴自主研发的 PolarDB 分布式版数据库,融合分布式 SQL 引擎和分布式自研存储 X-DB,基于云原生...

配置资源组与网络连通

配置网络连通 步骤一:网络绑定 网络连通方案选择取决于数据源与DataWorks工作空间(独享资源组,即同步机器)间的环境关系,包括以下场景:同步网络选择 数据源所在环境 数据源与DataWorks工作空间关系 网络连通通用逻辑 配置示例 通过 ...

新建 TiDB 数据源

新建数据源是创建数据迁移或数据同步项目的前提。本文为您介绍如何在数据传输中新建 TiDB 数据源。前提条件 已获取相关数据库的 IP 地址和端口号。已存在用于数据迁移的数据库用户。建议您为数据迁移项目创建一个专属的数据库用户,该用户...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 DBS 云数据库 RDS 数据传输服务 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用