创建StarRocks数据

通过创建StarRocks数据源能够实现Dataphin读取StarRocks的业务数据或向StarRocks写入...后续步骤 完成StarRocks数据源的创建后,即可将StarRocks的数据引入至Dataphin,或将Dataphin的数据写入至StarRocks数据源。详情请参见 数据集成概述。

配置MaxCompute输出组件

数据源 在数据源下拉列表中,展示所有MaxCompute类型的数据源,包括您已拥有同步写权限的数据源和没有同步写权限的数据源。对于没有同步写权限的数据源,您可以单击数据源后的 申请,申请数据源的同步写权限。具体操作,请参见 申请、续期...

数仓分层

基于阿里巴巴OneData方法论最佳实践,在阿里巴巴的数据体系中,建议将数据仓库分为三层:数据引入层(ODS,Operational Data Store)、数据公共层(CDM,Common Dimensions Model)和数据应用层(ADS,Application Data Store)。...

配置Impala输入组件

Impala输入组件用于读取Impala数据源的数据。同步Impala数据源的数据至其他数据源的场景中,您需要先配置Impala输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置Impala输入组件。前提条件 已创建Impala数据源,...

回收站列表

为防止对数据表的误操作,Dataphin支持将您删除后的数据表短期存留在回收站。同时Dataphin支持恢复或清除回收站中的数据表。本文为您介绍如何在回收站中清除表和恢复表。介绍页面 在Dataphin首页,单击顶部菜单栏的 资产。在 资产 页面,...

回收站列表

为防止对数据表的误操作,Dataphin支持将您删除后的数据表短期存留在回收站。同时Dataphin支持恢复或清除回收站中的数据表。本文为您介绍如何在回收站中清除表和恢复表。介绍页面 在Dataphin首页,单击顶部菜单栏的 资产。在 资产 页面,...

创建Teradata数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Flink_SQL任务开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

创建IBM DB2数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

配置ClickHouse输入组件

ClickHouse输入组件用于读取ClickHouse数据源的数据。同步ClickHouse数据源的数据至其他数据源的场景中,您需要先配置ClickHouse输入组件读取的数据源信息,再配置数据同步的目标数据源。本文为您介绍如何配置ClickHouse输入组件。前提条件...

管理数据分级

查看数据分级 在 数据分级 页面,查看系统中的数据分级及每个数据分级的详细信息。区域 描述 ① 搜索区 您可以根据数据分级的名称关键字,快速搜索数据分级。② 数据分类信息 为您展示数据分级、数据分级的名称、更新人、更新时间、分级...

管理数据分级

查看数据分级 在 数据分级 页面,查看系统中的数据分级及每个数据分级的详细信息。区域 描述 ① 搜索区 您可以根据数据分级的名称关键字,快速搜索数据分级。② 数据分类信息 为您展示数据分级、数据分级的名称、更新人、更新时间、分级...

配置DataHub输出组件

一次提交的数据量 为提高写出效率,数据集成会积累Buffer数据,待积累的数据大小达到一次提交的数据量大小(单位MB)时,批量提交到目的端。默认是1,即1 MB数据。高级配置 按需进行配置。支持以下参数:maxRetryCount:任务失败的最多重试...

创建Hudi数据

本文为您介绍如何创建Hudi数据源。背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并...同步到Hive的数据库名称:填写同步到Hive的数据库名称。单击 确定,完成Hudi数据源的创建。

创建IBM DB2数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Flink_SQL任务开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

配置TDH Inceptor输入组件

TDH Inceptor输入组件用于读取TDH Inceptor数据源的数据。同步TDH Inceptor数据源的数据至其他数据源的场景中,您需要先配置TDH Inceptor输入组件读取的数据源信息,再配置数据同步的目标数据源。本文为您介绍如何配置TDH Inceptor输入组件...

配置MongoDB输入组件

MongoDB输入组件用于读取MongoDB数据源的数据。同步MongoDB数据源的数据至其他数据源的场景中,您需要先配置MongoDB输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置MongoDB输入组件。前提条件 在开始执行操作前,...

配置Log Service输入组件

Log Service输入组件用于读取Log Service数据源的数据。同步Log Service数据源的数据至其他数据源的场景中,您需要先配置Log Service输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置Log Service输入组件。在开始...

查看数据分类预置模型

查看数据分类预置模型 系统内置通用和金融两种模型,帮助您在不同业务中可快捷选择合适的数据分类模板。通用模型:包括 个人信息(个人联系信息、个人基本信息、身份鉴别信息)、企业信息 和 设备敏感信息。金融模型:包括 业务类(账号...

查看数据分类预置模型

查看数据分类预置模型 系统内置通用和金融两种模型,帮助您在不同业务中可快捷选择合适的数据分类模板。通用模型:包括 个人信息(个人联系信息、个人基本信息、身份鉴别信息)、企业信息 和 设备敏感信息。金融模型:包括 业务类(账号...

数据源管理

前提条件 已创建数据源,详情请参见 Dataphin支持的数据源。操作步骤 在Dataphin首页,单击顶部菜单栏中的 资产。按照下图指引,进入 设置限速 页面。在 设置限速 页面,设置 限速时段 后,单击 确定。可以单击 添加时段,添加多个时段,最...

配置Log Service输入组件

Log Service输入组件用于读取Log Service数据源的数据。同步Log Service数据源的数据至其他数据源的场景中,您需要先配置Log Service输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置Log Service输入组件。在开始...

配置ClickHouse输出组件

同步其他数据源的数据至ClickHouse数据源的场景中,完成源数据的信息配置后,需要配置ClickHouse输出组件写入数据的目标数据源。本文为您介绍如何配置ClickHouse输出组件。前提条件 在开始执行操作前,请确认您已完成ClickHouse数据源及...

数据源管理

前提条件 已创建数据源,详情请参见 Dataphin支持的数据源。操作步骤 在Dataphin首页,单击顶部菜单栏中的 资产。按照下图指引,进入 设置限速 页面。在 设置限速 页面,设置 限速时段 后,单击 确定。可以单击 添加时段,添加多个时段,最...

配置OpenGauss输入组件

OpenGauss输入组件用于读取OpenGauss数据源的数据。同步OpenGauss数据源的数据至其他数据源的场景中,您需要先配置OpenGauss输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置OpenGauss输入组件。前提条件 已创建...

创建Vertica数据

背景信息 Vertica是一款基于列存储架构的数据库。如果您使用的是Vertica,在对接Dataphin进行数据开发时,您需要先完成Vertica数据源的创建。更多Vertica信息,请参见 Vertica官网。权限说明 Dataphin仅支持 超级管理员、数据源管理员、...

创建Vertica数据

背景信息 Vertica是一款基于列存储架构的数据库。如果您使用的是Vertica,在对接Dataphin进行数据开发时,您需要先完成Vertica数据源的创建。更多Vertica信息,请参见 Vertica官网。权限说明 Dataphin仅支持 超级管理员、数据源管理员、...

配置GoldenDB输入组件

GoldenDB输入组件用于读取GoldenDB数据源的数据。同步GoldenDB数据源的数据至其他数据源的场景中,您需要先配置GoldenDB输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置GoldenDB输入组件。前提条件 已创建...

配置Impala输入组件

Impala输入组件用于读取Impala数据源的数据。同步Impala数据源的数据至其他数据源的场景中,您需要先配置Impala输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置Impala输入组件。前提条件 已创建Impala数据源,...

创建Oracle数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

配置KingbaseES输入组件

KingbaseES输入组件用于读取KingbaseES数据源的数据。同步KingbaseES数据源的数据至其他数据源的场景中,您需要先配置KingbaseES输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置KingbaseES输入组件。前提条件 已...

配置StarRocks输入组件

StarRocks输入组件用于读取StarRocks数据源的数据。同步StarRocks数据源的数据至其他数据源的场景中,您需要先配置StarRocks输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置StarRocks输入组件。前提条件 已创建...

新建TDengine数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 数据源编码配置成功后不支持修改。数据源描述 对数据源的简单...

配置StarRocks输入组件

StarRocks输入组件用于读取StarRocks数据源的数据。同步StarRocks数据源的数据至其他数据源的场景中,您需要先配置StarRocks输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置StarRocks输入组件。前提条件 已创建...

步骤六:可视化分析

连接数据库 选择创建的数据库。显示名称 系统自动填充,无需填写。数据库地址 系统自动填充,无需填写。端口 默认 3306 端口。数据库 选择 flink_dataphin 数据库。用户名、密码 填写访问数据库的用户名和密码。数据库版本 选择 8.0 版本。...

步骤六:可视化分析

连接数据库 选择创建的数据库。显示名称 系统自动填充,无需填写。数据库地址 系统自动填充,无需填写。端口 默认 3306 端口。数据库 选择 flink_dataphin 数据库。用户名、密码 填写访问数据库的用户名和密码。数据库版本 选择 8.0 版本。...

配置OpenGauss输入组件

OpenGauss输入组件用于读取OpenGauss数据源的数据。同步OpenGauss数据源的数据至其他数据源的场景中,您需要先配置OpenGauss输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置OpenGauss输入组件。前提条件 已创建...

创建Hudi数据

同步到Hive的数据库名称:填写同步到Hive的数据库名称。单击 确定,完成Hudi数据源的创建。重要 创建Hudi数据源时不支持测试数据源是否可以和Dataphin进行正常的连通,因此需要您确保连接信息的正确性。您可根据 网络连通解决方案 自行排查...

新建TDengine数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Flink_SQL任务开发方式。重要 数据源编码配置成功后不支持修改。数据源描述 对数据源的简单...

创建Oracle数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Flink_SQL任务开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

查看资源用量大盘

资源用量大盘为您展示当前租户下已使用的数据处理单元总量和按任务类型分别统计的消耗趋势以及按项目粒度统计的消耗增量排行,帮助您了解数据处理单元的消耗情况以及时调整资源规格配置。本文为您介绍如何查看资源用量大盘。前提条件 需...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云数据库 Redis 版 数据库备份 DBS 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用