数据导入方式介绍

为满足多样化的数据导入需求,云原生数据仓库AnalyticDB MySQL版 提供了多种数据导入方式,包括:通过外表导入数据、使用DataWorks导入数据和利用JDBC通过程序导入数据等。本文介绍各导入方式的特性及适用场景,帮助您选择正确的数据导入...

数据变更最佳实践

批量和实时导入数据 批量导入:适用于大数据量导入的场景,导入过程中可以查询旧数据,导入操作完成后一键切换新数据。导入失败时,支持回滚新数据,不影响查询旧数据。例如,从MaxCompute、OSS中导入数据到 AnalyticDB MySQL版 时,推荐...

备份集查询功能概览

同时,DBS还提供查询多个备份集的功能,您可以更好地分析历史备份数据,进行横向对比分析,挖掘数据的价值,操作详情请参见 查询单个备份集、查询多个备份集。费用说明 DBS会调用DLA接口查询目标备份集,该过程中DBS不会产生费用,DLA会...

查看敏感数据识别结果

仅支持在 结构化数据、半结构化数据、非结构化数据 或 大数据 分类下分别选择一个或多个数据类型,不支持跨分类同时选择多个数据类型。如果您未选中任意数据类型,数据安全中心默认展示所有数据类型下的敏感数据识别结果。数据模板:在 ...

数据Owner

数据Owner是数据库或者表的数据负责人,对其他用户使用其负责的数据库表进行管控。用途 审批安全规则中各功能的审批流程节点。管理数据库和表的权限,对数据库和表进行主动授权或回收。配置 被动配置:由DBA或原Owner配置。说明 对于安全...

数据集成

数据源支持情况 数据集成目前支持40种以上的数据源类型(包括关系型数据库、非结构化存储、大数据存储、消息队列等),通过定义来源与去向数据源,并使用数据集成提供的数据抽取插件(Reader)、数据写入插件(Writer),实现任意结构化、...

DMS数据管理预案助力业务大促

通过本文您可以对现有数据库性能、安全等能力进行评估,提前规划好预防措施保障业务稳定运行,避免活动期间因数据库超载导致系统崩溃造成经济损失。前提条件 使用DMS大促预案的实例的管控模式为安全协同。更多信息,请参见 管控模式。背景...

什么数据传输服务DTS

数据传输服务DTS(Data Transmission Service)是阿里云提供的实时数据流服务,支持关系型数据库(RDBMS)、非关系型的数据库(NoSQL)、数据多维分析(OLAP)等数据源间的数据交互,集数据同步、迁移、订阅、集成、加工于一体,助您构建...

管理数据目录

数据目录是数据湖构建(Data Lake Formation)的元数据最上层实体,可以包含若干个数据库。在EMR Serverless Spark中,您可以通过该功能来查看绑定的数据目录中的数据库和表,还可以添加已有的数据目录。该功能适用于需要实现元数据隔离的...

配置ClickHouse输出组件

同步其他数据源的数据至ClickHouse数据源的场景中,完成源数据的信息配置后,需要配置ClickHouse输出组件写入数据的目标数据源。本文为您介绍如何配置ClickHouse输出组件。前提条件 在开始执行操作前,请确认您已完成ClickHouse数据源及...

数据导入性能优化

云原生数据仓库AnalyticDB MySQL版 提供的多种数据导入方法,满足不同场景下的数据导入需求。然而数据导入性能依然受各种各样的因素影响,如表的建模不合理导致长尾、导入配置低无法有效利用资源等。本文介绍不同场景下的数据导入调优方法...

数据导入性能优化

云原生数据仓库AnalyticDB MySQL版 提供的多种数据导入方法,满足不同场景下的数据导入需求。然而数据导入性能依然受各种各样的因素影响,如表的建模不合理导致长尾、导入配置低无法有效利用资源等。本文介绍不同场景下的数据导入调优方法...

Amazon S3数据

Simple Storage Service(简称S3)是一种专为从任意位置存储和检索任意数量的数据而构建的对象存储,DataWorks数据集成支持使用Amazon S3 Reader插件从S3数据库读取数据,本文为您介绍DataWorks的Amazon S3数据读取能力。支持的Amazon S3...

配置ClickHouse输出组件

同步其他数据源的数据至ClickHouse数据源的场景中,完成源数据的信息配置后,需要配置ClickHouse输出组件写入数据的目标数据源。本文为您介绍如何配置ClickHouse输出组件。前提条件 在开始执行操作前,请确认您已完成ClickHouse数据源及...

什么数据校验

数据校验是数据传输服务DTS(Data Transmission Service)提供的用于监控源库与目标库数据差异的功能,支持在不停服的情况下对源库和目标库进行校验,帮助您及时发现数据和结构不一致的问题。优势 全量校验、增量校验和结构校验均支持在...

什么数据校验

数据校验是数据传输服务DTS(Data Transmission Service)提供的用于监控源库与目标库数据差异的功能,支持在不停服的情况下对源库和目标库进行校验,帮助您及时发现数据和结构不一致的问题。优势 全量校验、增量校验和结构校验均支持在...

数据清理

背景信息 ODC 支持在源数据库中的数据归档到目标数据库后,删除源数据库中的数据,以提高数据库查询性能,降低在线存储成本。本文档旨在介绍如何通过提交数据清理工单实现归档数据。原理介绍 前提条件 清理的表中必须包含主键。注意事项 ...

产品简介

大数据专家服务 大数据专家服务(Bigdata Expert Service)是由阿里云大数据专家基于阿里云多年大数据架构、应用、运维、AI算法建模等最佳实践经验及方法论为用户提供全方位的大数据产品技术、咨询服务及售后专家服务运维保障,帮助用户...

离线数仓构建流程概述

步骤一:准备工作 规划数仓 数仓规划是数据建设中的蓝图,在您开始数据开发前,需要完成数据仓库的规划,数仓规划配置包括:创建数据板块和主题域、计算源、数据源、项目及项目中的成员。步骤二:规划数仓 数据集成 将创建好的数据源集成至...

离线数仓构建流程概述

步骤一:准备工作 规划数仓 数仓规划是数据建设中的蓝图,在您开始数据开发前,需要完成数据仓库的规划,数仓规划配置包括:创建数据板块和主题域、计算源、数据源、项目及项目中的成员。步骤二:规划数仓 数据集成 将创建好的数据源集成至...

数仓分层

基于阿里巴巴OneData方法论最佳实践,在阿里巴巴的数据体系中,建议将数据仓库分为三层:数据引入层(ODS,Operational Data Store)、数据公共层(CDM,Common Dimensions Model)和数据应用层(ADS,Application Data Store)。数据仓库...

数据归档

背景信息 ODC 支持定时将源数据库中的表数据归档至其它目标数据库中,以解决因线上数据增多影响查询性能与业务运作的问题。本文档旨在介绍如何通过提交数据归档工单实现归档数据。原理介绍 前提条件 归档的表中必须包含主键。注意事项 前置...

数仓分层

在阿里巴巴的数据体系中,我们建议将数据仓库分为三层,自下而上为:数据引入层(ODS,Operation Data Store)、数据公共层(CDM,Common Data Model)和数据应用层(ADS,Application Data Service)。数据仓库的分层和各层级用途如下图所...

数仓分层

在阿里巴巴的数据体系中,我们建议将数据仓库分为三层,自下而上为:数据引入层(ODS,Operation Data Store)、数据公共层(CDM,Common Data Model)和数据应用层(ADS,Application Data Service)。数据仓库的分层和各层级用途如下图所...

创建数据

数据管理DMS离线集成中,可以组合各类任务节点,形成数据流,通过周期调度运行达到数据加工、数据同步的目的。本文介绍创建数据流和配置的方法。前提条件 支持的数据库类型:MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、PolarDB...

数据源权限管理

本文为您汇总数据源权限管理相关的问题。哪些角色可以管理数据源的权限?是否支持再次分享已被分享的数据源?数据源的创建者是否有权控制该数据源?什么是私有模式的数据源?哪些用户能够收回数据源的分享权限?如何检查数据源分享关系的...

DataWorks模块使用说明

使用流程概览:参考文档:DataWorks数据建模 子模块:数据开发(DataStudio)功能说明:数据开发(DataStudio)是一站式大数据开发平台,支持在线开发MaxCompute、EMR、Hologres、CDP、ADB等多种大数据引擎的数据处理任务。它集成了强大的...

创建GreenPlum数据

背景信息 Greenplum是一款大数据分析引擎,作用于分析、机器学习和AI等领域。其架构主要针对管理大规模分析型数据仓库以及商业智能工作负载而设计。更多详情,请参见 GreenPlum官网。使用限制 Dataphin仅支持超级管理员、数据源管理员、...

基于MaxCompute进行大数据BI分析

方案介绍 基于MaxCompute进行大数据BI分析的流程如下:通过数据集成同步业务数据和日志数据至MaxCompute。通过MaxCompute、DataWorks对数据进行ETL处理。同步处理后的结果数据至AnalyticDB MySQL。通过Quick BI可视化建立用户画像。方案...

创建GreenPlum数据

背景信息 Greenplum是一款大数据分析引擎,作用于分析、机器学习和AI等领域。其架构主要针对管理大规模分析型数据仓库以及商业智能工作负载而设计。更多详情,请参见 GreenPlum官网。使用限制 Dataphin仅支持超级管理员、数据源管理员、...

将云消息队列 Kafka 版的数据迁移至MaxCompute

本文介绍如何使用DataWorks数据同步功能,将 云消息队列 Kafka 版 集群上的数据迁移至阿里云大数据计算服务MaxCompute,方便您对离线数据进行分析加工。前提条件 在开始本教程前,确保您在同一地域中已完成以下操作:云消息队列 Kafka 版 ...

数据资产等级定义

MaxCompute进行数据加工基本流程为从业务系统上产生数据,通过同步工具(DataWorks的数据集成或阿里云DTS)进入数据数仓系统(MaxCompute),数据在数仓中进行清洗、加工、整合、算法、模型等一系列运算后,再通过同步工具输出到数据产品中...

实时同步常见问题

原因:由于实时同步支持断点续传,为保障不丢失数据,在重启实时同步回溯位点时可能会往前回溯一部分数据,此过程可能导致之前的DDL消息再次被读取而再次报警。解决方案:当源端产生DDL变更时,手动在目标端数据库进行相应的DDL变更。启动...

管理健康报告

更新的数据分桶数 统计在导入任务过程中涉及到的需要更新的Tablet的总量。写入文件数 写入的Segment文件的总数量。平均写文件大小 总写入数据大小除以写入文件总数,用以表示每个文件的平均写入数据量。平均写文件耗时 文件写入总耗时除以...

任务调试流程

调试运行业务流程 数据开发概述,在左侧导航栏的数据开发或手动业务流程模块,双击目标业务流程,进入该业务流程面板。调试运行业务流程。单击业务流程面板工具栏的运行(图标),即可按照依赖关系,依次运行整个业务流程中的任务。说明 当...

流程管控

DataWorks提供了全链路的数据开发治理能力,为您提供了统一的数据开发治理流程,同时也支持您在DataWorks的默认流程上基于自己的业务需求在关键的流程节点进行流程管控。本文为您介绍DataWorks在数据开发过程中支持的流程管控能力。背景...

A100使用指南

支持审计10个数据库实例 12,000元/月 144,000元/年 企业版 吞吐量峰值:30,000条SQL/秒 800万/小时入库速率 10亿条在线SQL语句存储 350亿条归档SQL语句存储 支持审计25个数据库实例 20,000元/月 240,000元/年 说明 可以通过需要使用的数据...

常见问题

数据同步过程中,可以修改源表中的字段类型,目前仅支持整型数据类型之间、浮点数据类型之间的列类型更改,并且只能将取值范围小的数据类型更改为取值范围数据类型,或者将单精度数据类型更改为双精度数据类型。整型数据类型:支持...

需求分析

本实验提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据。业务背景 为了更好的制定企业经营策略,现需要从用户网站行为中获取网站用户群体基本画像数据,例如,用户群体地理属性、社会属性等,...

需求分析

本实验提供数据仅作为阿里云大数据开发治理平台DataWorks数据应用实操使用,所有数据均为人工Mock数据。业务背景 为了更好的制定企业经营策略,现需要从用户网站行为中获取网站用户群体基本画像数据,例如,用户群体地理属性、社会属性等,...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生大数据计算服务 MaxCompute 数据库备份 DBS 云数据库 RDS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用