质量规则模板类型

如果差异较,可能存在较大数据质量的问题需要进行确认和修复。实时多链路对比 高可用场景下,需要构建多条链路,以便数据出现异常时,能够及时切换。对于多链路之间的数据计算进度监控则可以发现一些数据滞留、统计偏差问题,提升实时...

质量规则模板类型

如果差异较,可能存在较大数据质量的问题需要进行确认和修复。实时多链路对比 高可用场景下,需要构建多条链路,以便数据出现异常时,能够及时切换。对于多链路之间的数据计算进度监控则可以发现一些数据滞留、统计偏差问题,提升实时...

配置Greenplum输出组件

配置Greenplum输出组件,可以将外部数据库中读取的数据写入到Greenplum,或从大数据平台对接的存储系统中将数据复制推送至Greenplum,进行数据整合和再加工。本文为您介绍如何配置Greenplum输出组件。前提条件 已创建Greenplum数据源。具体...

配置Greenplum输出组件

配置Greenplum输出组件,可以将外部数据库中读取的数据写入到Greenplum,或从大数据平台对接的存储系统中将数据复制推送至Greenplum,进行数据整合和再加工。本文为您介绍如何配置Greenplum输出组件。前提条件 已创建Greenplum数据源。具体...

配置Redis输出组件

配置Redis输出组件,可以将外部数据库中读取的数据写入到Redis,或从大数据平台对接的存储系统中将数据复制推送至Redis,进行数据整合和再加工。本文为您介绍如何配置Redis输出组件。前提条件 在开始执行操作前,请确认您已完成以下操作:...

创建Kudu数据

在 新建数据源 对话框的 大数据存储 区域,选择 Kudu。如果您最近使用过Kudu,也可以在 最近使用 区域选择Kudu。同时,您也可以在搜索框中,输入Kudu的关键词,快速筛选。在 新建Kudu数据源 对话框中,配置连接数据源参数。配置数据源的...

配置Redis输出组件

配置Redis输出组件,可以将外部数据库中读取的数据写入到Redis,或从大数据平台对接的存储系统中将数据复制推送至Redis,进行数据整合和再加工。本文为您介绍如何配置Redis输出组件。前提条件 在开始执行操作前,请确认您已完成以下操作:...

创建HBase数据

通过创建HBase数据源能够实现Dataphin读取HBase的业务数据或向HBase写入数据。本文为您介绍如何创建HBase数据源。背景信息 HBase是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是HBase,在导出Dataphin数据至HBase,您...

新建ArgoDB数据

在 新建数据源 对话框的 大数据存储 区域,选择 ArgoDB。如果您最近使用过ArgoDB,也可以在 最近使用 区域选择ArgoDB。同时,您也可以在搜索框中,输入ArgoDB的关键词,快速筛选。在 新建ArgoDB数据源 对话框中,配置数据源的基本信息。...

创建Hologres数据

在 新建数据源 对话框的 大数据存储 区域,选择 Hologres。如果您最近使用过Hologres,也可以在 最近使用 区域选择Hologres。同时,您也可以在搜索框中,输入Hologres的关键词,快速筛选。在 新建Hologres数据源 对话框中,配置连接数据源...

新建Paimon数据

在 新建数据源 对话框的 大数据存储 区域,选择 Paimon。如果您最近使用过Paimon,也可以在 最近使用 区域选择Paimon。同时,您也可以在搜索框中,输入Paimon的关键词,快速筛选。在 新建Paimon数据源 对话框中,配置数据源的基本信息。...

创建TDH Inceptor数据

在 新建数据源 对话框的 大数据存储 区域,选择 TDH Inceptor。如果您最近使用过TDH Inceptor,也可以在 最近使用 区域选择TDH Inceptor。同时,您也可以在搜索框中,输入TDH Inceptor的关键词,快速筛选。在 新建TDH Inceptor数据源 ...

配置OSS输出组件

配置OSS输出组件,可以将外部数据库中读取的数据写入到OSS,或从大数据平台对接的存储系统中将数据复制推送至OSS,进行数据整合和再加工。本文为您介绍如何配置OSS输出组件。前提条件 已创建OSS数据源。具体操作,请参见 创建OSS数据源。...

数据服务概述

数据服务(OneService)是基于Dataphin建设数据中台的最后一步。数据服务作为统一的数据服务出口,实现了数据的统一市场化管理,有效地降低数据开放门槛的同时,保障了数据开放的安全。前提条件 已购买 数据服务 增值服务,开通Dataphin ...

概念建模概述

背景信息 在建设数据中台的流程中,一般的首要任务是对整个业务进行前置调研,如先盘点出参与业务的人员、事物和基本规则定义,并理清人、事、物之间的关系和发生的各种交互行为。在全面了解业务的架构和运行情况后,产出业务的概念模型。...

配置Kafka输入组件

配置Kafka输入组件后,可以将kafka数据源中的数据读取至大数据平台对接的存储系统内,并进行数据整合和二次加工。本文为您介绍如何配置Kafka输入组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建Kafka数据源。具体操作,...

配置Kafka输入组件

配置Kafka输入组件后,可以将kafka数据源中的数据读取至大数据平台对接的存储系统内,并进行数据整合和二次加工。本文为您介绍如何配置Kafka输入组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建Kafka数据源。具体操作,...

步骤二:规划数仓

数仓规划是基于Dataphin建设数据中台的第一步,同时也是数据体系的顶层设计中至关重要的一步。在开始数据开发前,需要完成数据仓库的规划,包括定义数据板块、项目、数据源、计算源和统计周期。本文将指导您完成本教程的规划数仓。背景信息...

步骤二:规划数仓

数仓规划是基于Dataphin建设数据中台的第一步,同时也是数据体系的顶层设计中至关重要的一步。在开始数据开发前,需要完成数据仓库的规划,包括定义数据板块、项目、数据源、计算源和统计周期。本文将指导您完成本教程的规划数仓。背景信息...

配置FTP输入组件

FTP输入组件适用于从FTP中将数据读取至大数据平台对接的存储系统内,进行数据整合和再加工。本文为您介绍如何配置FTP输入组件。前提条件 已创建FTP数据源,详情请参见 创建FTP数据源。进行FTP输入组件属性配置的账号,需具备该数据源的同步...

配置FTP输入组件

FTP输入组件适用于从FTP中将数据读取至大数据平台对接的存储系统内,进行数据整合和再加工。本文为您介绍如何配置FTP输入组件。前提条件 已创建FTP数据源,详情请参见 创建FTP数据源。进行FTP输入组件属性配置的账号,需具备该数据源的同步...

快速入门

如果您是首次使用智能数据建设与治理Dataphin,您可以参考快速入门文档,了解如何购买实例并接入服务端。Dataphin全托管 Dataphin全托管快速入门 Dataphin半托管 Dataphin半托管快速入门

步骤六:可视化分析

本文将使用Quick BI指导您完成本教程的可视化分析步骤,包括数据源、数据集的创建和数据大屏图表的配置。步骤一:创建数据源 登录 Quick BI控制台。按照下图操作指引,进入 创建数据源 对话框。在 MySQL-阿里云 区域,配置连接参数。参数 ...

步骤六:可视化分析

本文将使用Quick BI指导您完成本教程的可视化分析步骤,包括数据源、数据集的创建和数据大屏图表的配置。步骤一:创建数据源 登录 Quick BI控制台。按照下图操作指引,进入 创建数据源 对话框。在 MySQL-阿里云 区域,配置连接参数。参数 ...

答疑支持

若您在使用智能数据建设与治理Dataphin的过程中有任何疑问,您可通过答疑支持联系我们,为您答疑解惑。操作步骤 在Dataphin页面,按照以下操作指引或单击蓝色小机器人选择 答疑支持,进入答疑支持页面后,输入您需解答的问题。依次单击 ...

答疑支持

若您在使用智能数据建设与治理Dataphin的过程中有任何疑问,您可通过答疑支持联系我们,为您答疑解惑。使用说明 需保证网络连通、Dataphin已升级至3.14.1及以上版本且已经对接工单系统(如需对接可联系运维部署团队)方可使用工单功能。...

离线数仓构建流程概述

步骤一:准备工作 规划数仓 数仓规划是数据建设中的蓝图,在您开始数据开发前,需要完成数据仓库的规划,数仓规划配置包括:创建数据板块和主题域、计算源、数据源、项目及项目中的成员。步骤二:规划数仓 数据集成 将创建好的数据源集成至...

离线数仓构建流程概述

步骤一:准备工作 规划数仓 数仓规划是数据建设中的蓝图,在您开始数据开发前,需要完成数据仓库的规划,数仓规划配置包括:创建数据板块和主题域、计算源、数据源、项目及项目中的成员。步骤二:规划数仓 数据集成 将创建好的数据源集成至...

Dataphin免费试用申请

申请信息填写完后,勾选 我已阅读并同意《Dataphin智能数据建设与治理试用服务协议》,单击 免费试用,体验Dataphin功能。相关文档 试用开通成功后,您可按照 Dataphin新手引导 一步步体验Dataphin的研发流程,也可按照 导入模型 来导入...

数据集成概述

背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错,限速,并发)等。...

数据集成概述

背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错,限速,并发)等。...

配置ClickHouse输出组件

同步其他数据源的数据至ClickHouse数据源的场景中,完成源数据的信息配置后,需要配置ClickHouse输出组件写入数据的目标数据源。本文为您介绍如何配置ClickHouse输出组件。前提条件 在开始执行操作前,请确认您已完成ClickHouse数据源及...

配置ClickHouse输出组件

同步其他数据源的数据至ClickHouse数据源的场景中,完成源数据的信息配置后,需要配置ClickHouse输出组件写入数据的目标数据源。本文为您介绍如何配置ClickHouse输出组件。前提条件 在开始执行操作前,请确认您已完成ClickHouse数据源及...

资产全景及目录概述

整体概述 Dataphin的数据资产功能,基于数据资产管理的规范及方法论,帮助您对数据资产进行盘点评估:支持自动化提取分析元数据,可视化构建数据资产图,便于管理者发现与了解数据资产价值。支持对数据生产中的计算、存储、安全、应用等...

资产全景及目录概述

整体概述 Dataphin的数据资产功能,基于数据资产管理的规范及方法论,帮助您对数据资产进行盘点评估:支持自动化提取分析元数据,可视化构建数据资产图,便于管理者发现与了解数据资产价值。支持对数据生产中的计算、存储、安全、应用等...

开通Dataphin

在阿里云官网,鼠标悬停至 产品 后,再将鼠标悬停至左侧导航栏的 大数据计算 上,单击 数据开发与服务 列下的 智能数据建设与治理Dataphin。在Dataphin产品详情页,单击 特惠购买,进入Dataphin购买页面。在购买页面,选择 地域、版本、...

使用限制

计算引擎类型 选择设置 计算引擎设置需要提前采购计算引擎MaxCompute资源,系统以此来支持相关数据建设工作。需要选择计算引擎类型(目前仅开放MaxCompute计算类型),配置计算引擎所在的集群,例如Endpoint等信息。系统以此来支持该计算...

DataWorks数据安全治理路线

DataWorks基于数据安全治理的常见思路,针对资产梳理、技术体系建设和运营体系建设,提供了一系列数据安全产品能力,您可通过“基础防护建设数据安全防护措施及策略增强建设数据安全持续运营”三个阶段在DataWorks上落地数据安全治理...

准备数据源和计算源

在使用Dataphin前,您需要选择符合业务场景需求的数据库或数据仓库作为数据源,用于读取原始数据和写入数据建设过程中的数据;同时您需要准备MaxCompute项目、Flink项目作为Dataphin的计算源,为数据的研发提供计算资源。准备数据源 ...

准备数据源和计算源

在使用Dataphin前,您需要选择符合业务场景需求的数据库或数据仓库作为数据源,用于读取原始数据和写入数据建设过程中的数据;同时您需要准备MaxCompute项目、Flink项目作为Dataphin的计算源,为数据的研发提供计算资源。准备数据源 ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生大数据计算服务 MaxCompute 数据传输服务 智能数据建设与治理 Dataphin 数据库备份 DBS 数据总线 DataHub 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用