简介

当您需要将查询的数据、测试的数据、以及数据变化趋势等信息,以文档的形式进行交付,并在交付后,希望有可以替您解答数据的相关问题的工具时,您可以使用DMS的数据工作站功能。背景信息 Data Fabric是一种创新的数据管理方法,着重于迅速...

多账号统一管理

便于企业有效地执行数据安全管理任务,如自动发现敏感数据数据分类分级、以及对潜在安全威胁的监测和报警。本文介绍如何使用多账号统一管理功能。使用须知 使用多账号统一管理功能的阿里云账号和被管理的阿里云账号必须同属于一个资源...

功能简介

AnalyticDB PostgreSQL版 的企业数据智能平台是数据资产定义、加工、管理、服务的全流程平台,提供数据同步、数据查询、数据建模、数据开发、质量评估、资产管理等功能,为智能数据应用持续稳定供给全量、标准、干净、智能的数据资源。...

离线同步数据质量排查

如果写出数据和目标存储已有数据发生数据约束(主键冲突、唯一键约束、外键约束等),数据库则使用来源数据update更新目标表已有数据行,在目标表存在多个数据约束的情况下,数据替换可能会失败并产生脏数据 如果写出数据和目标存储已有...

数据服务概述

Dataphin数据源可以作为 Quick BI 的数据源,对业务数据进行展示、分析、探查和制作报表等 场景及使用流程 在开始使用数据服务前,需要您了解数据服务的使用场景,及在不同场景下对应角色的操作流程。入口介绍 在Dataphin首页,单击 服务,...

集成与开发概览

您可以通过流批一体的数据集成对在线数据进行入仓、加工处理,通过数据开发模块对数仓数据进行分层开发,之后结合数据服务和可视化能力对外提供数据使用和分析服务。您也可以将这些功能作为基础能力集成到您自己的数据平台中使用,建设属于...

导出数据

数据水印:是指将标识信息通过一定方式嵌入到数据中,该水印信息数据使用者难以察觉。说明 建议导出的数据超过200条时使用数据水印嵌入。未开通敏感数据保护的数据库实例,不可使用数据水印。文件水印:是指将标识信息通过一定方式嵌入到...

资产安全概述

通过数据分类分级、敏感数据识别、敏感数据脱敏等措施,帮助客户建立完善的数据安全体系,确保数据使用的安全合规性。前提条件 已购买 资产安全 增值服务,详情请参见 开通Dataphin。应用场景 基于Dataphin实现数据安全保护的一些典型的...

内置检测模型说明

异常终端下载敏感数据 来自异常终端的数据下载可能是由于账号访问权限被外部攻击者获取,或者员工使用非工作终端进行数据下载。异常时间下载敏感数据 来自异常时间的数据下载可能是由于账号访问权限被外部攻击者获取,或者员工在非正常工作...

资产安全概述

通过数据分类分级、敏感数据识别、敏感数据脱敏等措施,帮助客户建立完善的数据安全体系,确保数据使用的安全合规性。前提条件 已购买 资产安全 增值服务并且当前租户已开通 资产安全 模块。应用场景 基于Dataphin实现数据安全保护的一些...

支持的数据

数据源类别 数据库类型 阿里云数据库 RDS MySQL RDS SQL Server RDS PostgreSQL RDS MariaDB PolarDB MySQL版 PolarDB PostgreSQL版 MongoDB Redis PolarDB分布式版 自建数据库:ECS上的自建数据库 有公网IP:Port的自建数据库 通过专线/VPN...

创建数据库用户

您在使用数据传输的数据迁移和数据同步功能前,请先在源端和目标端数据库中,为数据迁移或同步任务创建专用的数据库用户。OceanBase 数据源 创建 OceanBase 数据库用户 此处创建的 OceanBase 数据库用户,用于创建 实例类型 为 VPC 内自建...

迁移方案概览

数据迁移功能帮助您实现同构或异构数据源之间的数据迁移,适用于数据上云迁移、阿里云内部跨实例数据迁移、数据库拆分扩容等业务场景。本文将介绍数据迁移功能支持的数据库、版本和迁移类型,以及具体的配置文档。说明 数据迁移在某些场景...

数据迁移操作指导

数据迁移可以帮助您实现同构或异构数据源之间的数据迁移,适用于数据上云迁移、阿里云内部跨实例数据迁移、数据库拆分扩容等业务场景。本文介绍数据迁移功能的使用流程,帮助您快速掌握创建、监控、管理数据迁移任务的操作。背景知识 迁移...

混合云备份HBR

存储容量单位SCU(Storage Capacity Unit)是一种预付费的存储容量资源,可以抵扣多种不同类型云存储产品的按量付费账单。抵扣系数 SCU可以抵扣多款云产品的部分存储费用,下表列出中国内地SCU抵扣HBR存储费用时的抵扣系数。说明 其他...

我是普通用户

数据导出 进行大量数据分析或提取相关数据时可以使用数据导出功能。数据追踪 由于误操作等原因导致数据不符合预期时,可以通过数据追踪将数据快速恢复到正常状态。测试数据构建 测试数据结构可以在频繁的数据准备过程中确保数据安全、保障...

数据服务概述

使用场景 最小粒度的数据输出控制 当企业需要对外提供数据时,可以使用调用API的方式,该方式可帮助用户仅暴露最小单元的数据(可控制到行级、列级)。使用API数据源进行可视化制作 在多数可视化工具中使用API数据源来分析数据,而不是对外...

数仓分层

基于阿里巴巴OneData方法论最佳实践,在阿里巴巴的数据体系中,建议将数据仓库分为三层:数据引入层(ODS,Operational Data Store)、数据公共层(CDM,Common Dimensions Model)和数据应用层(ADS,Application Data Store)。数据仓库...

常见问题

数据湖后端存储使用OSS,用户使用数据湖构建面向大数据分析和机器学习场景可以获得集中式权限管理和统一的元数据视图,更容易对接云上大数据和分析产品。什么情况下我需要使用数据湖构建?在云上有数据分析和机器学习需求,希望构建云上的...

支持的数据库

说明 若源端为DTS同步方案暂不支持的数据库类型(即在源端 数据库类型 中没有您数据库的选项),可以尝试使用数据投递功能。更多信息,请参见 数据投递。源为自建MySQL或RDS MySQL的同步方案 重要 PolarDB-X 1.0中的数据库须基于RDS MySQL...

使用包

本节介绍如何使用包。要引用在规格中声明的类型、项目和子程序,您可以使用点表示法。例如:package_name.type_name package_name.item_name package_name.subprogram_name 如需从emp_admin规格调用函数,您可以执行以下 SQL 命令。...

我是安全管理员

数据导出 进行大量数据分析或提取相关数据时可以使用数据导出功能。数据追踪 由于误操作等原因导致数据不符合预期时,可以通过数据追踪将数据快速恢复到正常状态。测试数据构建 测试数据结构可以在频繁的数据准备过程中确保数据安全、保障...

数据上传

DataWorks的数据上传功能支持将本地文件、数据分析的电子表格、OSS文件等数据上传至MaxCompute、EMR Hive、Hologres等引擎进行分析及管理,为您提供便捷的数据传输服务,助力您快速实现数据驱动业务。本文为您介绍如何使用数据上传功能上传...

我是DBA

数据导出 进行大量数据分析或提取相关数据时可以使用数据导出功能。数据追踪 由于误操作等原因导致数据不符合预期时,可以通过数据追踪将数据快速恢复到正常状态。测试数据构建 测试数据结构可以在频繁的数据准备过程中确保数据安全、保障...

我是管理员

数据导出 进行大量数据分析或提取相关数据时可以使用数据导出功能。数据追踪 由于误操作等原因导致数据不符合预期时,可以通过数据追踪将数据快速恢复到正常状态。测试数据构建 测试数据结构可以在频繁的数据准备过程中确保数据安全、保障...

文档修订记录

DataWorks数据安全治理路线 2023年12月更新记录 时间 特性 类别 描述 产品文档 2023.12.29 新增功能 数据开发 若您要在DataWorks中进行数据建模、数据开发或使用运维中心周期性调度任务,需先将已创建的数据源或集群绑定至数据开发...

DLF+EMR之统一权限最佳实践

本文结合具体业务场景,为您介绍如何使用DLF+EMR两个产品实现数据湖上统一权限的最佳实践。背景说明 元数据和数据权限是DLF产品提供的数据湖构建所需的基础能力,数据湖上引擎及产品。通过DLF提供的统一元数据视图访问湖上数据,解决湖上...

基于Delta lake的一站式数据湖构建与分析实战

数据湖作为一个集中化的数据存储仓库,支持的数据类型具有多样性,包括结构化、半结构化以及非结构化的数据数据来源上包含数据数据、binglog 增量数据、日志数据以及已有数仓上的存量数据等。数据湖能够将这些不同来源、不同格式的数据...

功能特性

数据库文件存储 功能集 功能 功能描述 参考文档 DBFS特性 原子写 支持DIRECT IO的原子写,需按4K,8K,16K对齐-共享读写 一份数据可共享式多点挂载并进行读写,读写可线性扩展-存储加密 通过对数据库文件存储实施加密,可以确保数据库文件...

什么是数据管理DMS

为什么选择数据管理DMS 全域数据资产:支持企业全域数据资产管理,提供贯穿数据生命周期的质量治理与安全治理,帮助企业快速地查找数据,高效地使用数据数据集成:支持常见数据源的实时、离线数据集成,数据集成过程中支持灵活自定义数据...

概述

数据安全共享场景:您可以通过控制密钥的所有权,管理数据使用权和数据访问的频次,实现数据安全共享,避免数据泄露。场景如下图所示:版本介绍 Spark全密态计算引擎分为 基础版和高性能版两个版本,区别如下:基础版:基础版的Spark全密态...

管理数据

数据集是基于特定数据库和SQL查询生成,并且以二维表呈现的一种数据集合。本文介绍创建、编辑、删除数据集的方法。注意事项 数据分析后续所有的分析工作、仪表盘制作和大屏制作都是基于数据集进行的,因此在进行其他功能前,必须先创建数据...

同步数据

通过Kettle将关系型数据库、Hbase等NoSQL数据源,以及Excel、Access中的数据导入分析型数据库MySQL版中,详细操作步骤请参见 使用kettle将本地数据导入分析型数据库MySQL版。通过 Logstash 插件将采集到的日志等数据等实时写入分析型数据库...

数据库导出

当您需要进行数据库备份、导出数据库表进行数据分析等操作,您可使用 数据管理DMS 的数据导出功能,该功能可通过提交工单的方式导出数据库。前提条件 数据库类型如下:MySQL系列:自建MySQL、RDS MySQL、PolarDB MySQL版、AnalyticDB ...

管理数据

企业管理员使用数据域可以基于业务属性、组织架构、数据特征等维度对数据资产进行分类管理。通过将拥有共同属性的数据资产集中到同一个数据域中,管理员可以高效管理数据资产及资产中的敏感数据。本文介绍首次使用数据域功能的具体操作。...

什么是数据库网关

使用指引 如果您是第一次使用数据库网关,您可以参考下述步骤开始使用:准备工作 新建数据库网关 添加数据库 为什么选择数据库网关 数据库网关提供安全可靠、低成本的数据库接入服务,通过数据库网关您可以安全且低成本地将第三方云或本地...

数据服务入门

步骤一:创建数据源并配置网络连通性 使用数据服务创建API前,您需将数据库或数据仓库添加为DataWorks的数据源,并保障数据服务资源组与您的目标数据源网络连通,以便调用API时DataWorks可成功访问数据源。说明 DataWorks工作空间将集群或...

迁移MongoDB实例至其他地域

本文介绍如何使用数据传输服务DTS(Data Transmission Service),实现全量数据迁移和增量数据迁移MongoDB副本集实例至其他地域,全量数据迁移MongoDB单节点实例至其他地域。前提条件 源实例类型为单节点实例或副本集实例。如果源实例为分...

迁移MongoDB实例至其他地域

本文介绍如何使用数据传输服务DTS(Data Transmission Service),实现全量数据迁移和增量数据迁移MongoDB副本集实例至其他地域,全量数据迁移MongoDB单节点实例至其他地域。前提条件 源实例类型为单节点实例或副本集实例。如果源实例为分...

场景管理器

图表样式 场景管理器是3D地球的子组件,支持独立的样式、数据和交互配置,能够使用数据定义镜头位置,通过移动和缩放的动效展示球体的不同位置。配置面板 搜索配置:单击 配置 面板右上角的 搜索配置,可在 搜索配置 面板中输入您需要搜索...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 共享流量包 数据传输服务 云数据库 RDS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用