JindoFS实战演示

使用Checksum迁移HDFS数据到OSS 使用Checksum迁移HDFS数据到OSS 2021-05-11 通过Checksum算法,你可以在大数据迁移场景中校验数据的完整性、对比数据差异并实现增量迁移。本视频为您介绍如何使用Jindo Distcp迁移HDFS数据到OSS,以及在迁移...

新建Doris数据

数据源配置 基于业务数据源是否区分生产数据源和开发数据源:如果业务数据源区分生产数据源和开发数据源,则选择 生产+开发数据源。如果业务数据源不区分生产数据源和开发数据源,则选择 生产数据源。标签 您可根据标签给数据源进行分类...

新建Doris数据

数据源配置 基于业务数据源是否区分生产数据源和开发数据源:如果业务数据源区分生产数据源和开发数据源,则选择 生产+开发数据源。如果业务数据源不区分生产数据源和开发数据源,则选择 生产数据源。标签 您可根据标签给数据源进行分类...

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大...

OSS数据安全防护最佳实践

DSC 在您完成数据源识别授权后,从您存储在OSS的海量数据中快速发现和定位敏感数据,对敏感数据分类分级并统一展示,同时追踪敏感数据的使用情况,并根据预先定义的安全策略,对数据进行保护和审计,以便您随时了解OSS数据资产的安全状态。...

使用MaxCompute控制台(离线)

查看上传记录 提交上传后,若数据量较,需要耗费一些时间,您无需在提交页面一直等待,可后续通过单击 数据上传 页面右上角的 查看上传记录 查看通过该功能上传数据的详情记录。说明 通过该页面的 查看上传记录 查询到的记录详情也包含...

创建Hologres数据

新建Hologres数据源用于实现Dataphin能够读取Hologres的业务数据,及能够向Hologres写入数据。在引入Hologres的业务数据至Dataphin和将Dataphin的数据写入至Hologres的场景中,您需要先创建Hologres数据源。本文为您介绍如何新建Hologres...

网络连通解决方案

添加数据源时需要根据数据源所在网络环境,通过对应的网络解决方案,实现Dataphin与数据源的网络连通。本文为您介绍数据源在不同网络环境中与Dataphin的网络连通方案。网络连通方案 根据数据源所在的网络环境,在下图中选择对应的网络连通...

创建HBase数据

通过创建HBase数据源能够实现Dataphin读取HBase的业务数据或向HBase写入数据。本文为您介绍如何创建HBase数据源。背景信息 HBase是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是HBase,在导出Dataphin数据至HBase,您...

Quick BI连接MaxCompute

MaxCompute支持您将MaxCompute项目数据接入阿里云Quick BI,对海量数据进行实时在线分析服务,同时支持拖拽式操作和丰富的可视化效果,帮助您轻松自如地完成数据分析、业务数据探查、报表制作等工作。本文为您介绍如何使用Quick BI连接...

数据组织优化

Clustering 当前痛点 Transactional Table 2.0支持分钟级近实时增量数据导入,高流量场景下可能会导致增量小文件数量膨胀,从而引发存储访问压力、成本高,并且大量的小文件还会引发Meta更新以及分析执行慢,数据读写I/O效率低下等问题,...

创建Kudu数据

背景信息 Kudu提供接近于关系数据库管理系统(RDBMS)的功能和数据模型,提供类似于关系型数据库的存储结构来存储数据,允许用户以和关系型数据库相同的方式插入、更新、删除数据。Kudu仅仅是一个存储层,并不存储数据,因此需要依赖外部的...

创建Hologres数据

新建Hologres数据源用于实现Dataphin能够读取Hologres的业务数据,及能够向Hologres写入数据。在引入Hologres的业务数据至Dataphin和将Dataphin的数据写入至Hologres的场景中,您需要先创建Hologres数据源。本文为您介绍如何新建Hologres...

离线数仓构建流程概述

本教程将 从前期的资源准备、数仓规划,到后期的运维补数据、查看运行结果,指导您如何使用Dataphin完成基本的离线数仓构建。以帮助您快速了解...步骤七:运维补数据 验证数据 您可以通过即席查询来验证数据正确性。步骤八:验证数据

离线数仓构建流程概述

本教程将 从前期的资源准备、数仓规划,到后期的运维补数据、查看运行结果,指导您如何使用Dataphin完成基本的离线数仓构建。以帮助您快速了解...步骤七:运维补数据 验证数据 您可以通过即席查询来验证数据正确性。步骤八:验证数据

配置跨库Spark SQL节点

任务编排中的跨库Spark SQL节点,主要针对各类跨库数据同步和数据加工场景,您可以通过编写Spark SQL,完成各种复杂的数据同步或数据加工的任务开发。前提条件 支持的数据库类型:MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、...

新建ArgoDB数据

通过创新建ArgoDB数据源能够实现Dataphin读取ArgoDB的业务数据或向ArgoDB写入数据。本文为您介绍如何新建ArgoDB数据源。权限说明 Dataphin仅支持 超级管理员、数据源管理员、板块架构师、项目管理员 角色创建数据源。操作步骤 在Dataphin...

数据洞察

DataWorks数据洞察是指通过深度数据分析和解读来获取深刻的数据理解和发现,它支持数据探索和可视化。您可以通过数据洞察了解数据分布,创建数据卡片,并组合成数据报告。此外,数据洞察结果能够通过长图形式的报告进一步分享。该功能利用...

新建Paimon数据

通过新建Paimon数据源能够实现Dataphin读取Paimon的业务数据或向Paimon写入数据。本文为您介绍如何新建Paimon数据源。权限说明 仅支持具备新建数据源权限的账号进行新建。更多信息,请参见 数据源权限说明。使用限制 Paimon数据源不支持以...

高压缩引擎(X-Engine)介绍

挑战和诉求:历史数据归档 历史数据归档的挑战 部分业务数据的读写特征,都是最新产生的数据会被更频繁地读取或更新,而更久之前的数据(如1年前的聊天记录或订单信息)很少被访问。随着业务发展,数据库系统中会积累大量访问频率很低...

识别任务说明

文件或表扫描限制 为了避免数据源中文件或表过影响整体扫描进度,数据安全中心对可以扫描的文件大小或表的字段大小做了限制,请您在进行敏感数据扫描前了解以下规则:结构化数据(RDS MySQL、RDS PostgreSQL、PolarDB等)、大数据...

创建TDH Inceptor数据

通过创建TDH Inceptor数据源能够实现Dataphin读取TDH Inceptor的业务数据或向TDH Inceptor写入数据。本文为您介绍如何创建TDH Inceptor数据源。使用限制 Dataphin仅支持 超级管理员、数据源管理员、板块架构师、项目管理员 角色创建数据源...

数据集成概述

离线(批量)的数据通道通过定义数据来源和去向的数据源和数据集,提供一套抽象化的数据抽取插件(Reader)、数据写入插件(Writer),并基于此框架设计一套简化版的中间数据传输格式,从而实现任意结构化、半结构化数据源之间数据传输。...

DescribeColumns-查询数据资产表中列的数据

调用DescribeColumns接口查询数据安全中心连接授权的MaxCompute、RDS等数据资产表中列的数据。接口说明 本接口一般用于敏感数据资产信息表中列数据的查看,便于用户准确的对敏感数据进行分析。注意事项 DescribeColumns 接口已修订为 ...

什么是Dataphin

Dataphin是阿里巴巴集团OneData数据治理方法论内部实践的云化输出,一站式提供数据采、建、管、用全生命周期的大数据能力,以助力企业显著提升数据治理水平,构建质量可靠、消费便捷、生产安全经济的企业级数据中台。Dataphin兼容多种计算...

功能特性

配置管理 数据保护 敏感数据管理 DMS的敏感数据保护能力能根据所选的敏感数据扫描模板、敏感数据识别模型以及脱敏算法对数据进行脱敏处理,以避免敏感数据滥用,有效保护企业的敏感数据资产,防止数据泄露造成企业经营资金损失或罚款。...

应用场景

数据传输服务DTS(Data Transmission Service)支持数据迁移、数据订阅和数据实时同步功能,帮助您实现多种典型应用场景。不停机迁移数据库 传输方式:数据迁移 为了保证数据的一致性,传统的迁移过程需要您在迁移数据时停止向源数据库写入...

功能特性

计算 MaxCompute向用户提供了多种经典的分布式计算模型,提供TB、PB、EB级数据计算能力,能够更快速的解决用户海量数据计算问题,有效降低企业成本。功能集 功能 功能描述 参考文档 SQL开发 DDL语句 DDL语句 DDL DML操作 DML操作 DML操作 ...

常见问题

数据同步过程中,可以修改源表中的字段类型,目前仅支持整型数据类型之间、浮点数据类型之间的列类型更改,并且只能将取值范围小的数据类型更改为取值范围数据类型,或者将单精度数据类型更改为双精度数据类型。整型数据类型:支持...

源库连接性检查

在预检查阶段,系统会检查DTS服务器是否能够连通源端数据库。本文将介绍源库连接性检查失败的可能原因及修复方法。当源库连接性预检查失败时,可能是以下几种原因。数据库账号名或密码不正确 报错示例 Access denied for user 'XXX'@'XXX'...

使用DataWorks

MaxCompute支持通过DataWorks的数据集成功能将MaxCompute中的数据以离线方式导出至其他数据源。当您需要将MaxCompute中的数据导出至其他数据源执行后续数据处理操作时,您可以使用数据集成功能导出数据。本文为您介绍如何将MaxCompute的...

管理数据库Owner

当您需要将特定用户设置为数据库Owner、授予数据库的查询和导出等权限时,可参考本文进行操作。注意事项 待设置的数据库Owner需要是已录入至DMS的用户。若需要录入新的用户,请参见 用户管理。本文的数据库Owner为DMS的资源角色名。更多...

操作流程

新建数据字典并物理化 通过新建并维护数据模型中使用的数据字典,制定并管理平台遵循的统一数据标准,为数据元、指标、维度引用数据字典提供数据基础,帮助平台管理者和数据管理者管控治理后数据的一致性和数据质量。具体操作,请参见 新建...

操作流程

新建数据字典并物理化 通过新建并维护数据模型中使用的数据字典,制定并管理平台遵循的统一数据标准,为数据元、指标、维度引用数据字典提供数据基础,帮助平台管理者和数据管理者管控治理后数据的一致性和数据质量。具体操作,请参见 新建...

SQL查询

工作空间已配置数据源:DataWorks的数据源分为引擎绑定时默认创建的引擎数据源和在数据源配置界面创建的自建数据源,若要操作非引擎数据源,请确保已创建数据源,详情请参见 创建并管理数据源。已拥有某数据源在数据分析模块的查询权限:...

准备数据

数据准备阶段,您需要同步原始数据至MaxCompute。前提条件 已完成 准备环境。已新增MaxCompute数据源。详情请参见 创建MaxCompute数据源。准备数据源 通过RDS创建MySQL实例,获取RDS实例ID。详情请参见 快速创建RDS MySQL实例。在RDS控制...

准备用于数据同步的数据库账号

无 双向同步任务对账号权限的要求 双向同步任务要求源和目标数据库具备如下权限,以允许DTS在源和目标数据库中创建库dts,用于做数据防循环复制。数据库 所需权限 创建及授权方式 RDS MySQL 高权限账号。创建数据库和账号。自建MySQL 待...

准备用于数据迁移的数据库账号

重要 如需执行增量数据迁移,且不允许授予DBA权限,您可以为数据库账号授予更精细化的权限,详情请参见 需授予的精细化权限。云数据库MongoDB 全量数据迁移:待迁移库的read权限。增量数据迁移:待迁移库、admin库和local库的read权限。请...

产品计费

数据域管理 该功能支持将具有相同特征的数据资产划分到同一个数据域中,从而高效管理数据资产及资产中的敏感数据。安全审计 DSC 根据内置和自定义的审计规则审计您的资产,并支持展示审计到的会话信息、原始日志和异常告警。数据脱敏 DSC ...

数据模型

当您需要在不同业务场景中使用 云数据库 SelectDB 版 时,深入了解其数据模型对于您的业务设计具有重要帮助。本文档将指导您了解其数据模型,以帮助您设计出更优的数据存储方案。基本概念 在 云数据库 SelectDB 版 中,数据以表(Table)的...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 数据库备份 DBS 云数据库 Redis 版 云数据库 RDS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用