应用场景

通过对敏感数据进行分类、分级和脱敏,帮助您精准识别和保护敏感数据。...数据安全合规检查 应相关监督部门的数据安全合规检查要求,可通过 DSC 提供的数据安全的分类分级、泄漏检测、数据脱敏等功能对数据进行相关合规检查。

配置OceanBase输入组件

OceanBase输入组件用于读取OceanBase数据源的数据。同步OceanBase数据源的数据至其他数据源的场景中,您需要先配置OceanBase输入组件读取的源数据源信息,再配置数据同步的目标数据源。本文为您介绍如何配置OceanBase输入组件。前提条件 在...

什么是数据库网关

数据库网关DG(Database Gateway)是一种支持私网数据库远程访问的数据库连接服务。通过数据库网关,您可以安全且低成本地将第三方云或本地的数据库接入至阿里云。同时,数据库网关可以与其他阿里云产品(例如数据传输服务DTS,数据库备份...

支持的数据

DBS支持添加阿里云数据库、自建库、其他云厂商等各种环境中的MySQL、SQL Server、PostgreSQL、Oracle、MongoDB、Redis等类型的数据源。数据源是待备份的数据库或文件路径,数据源信息包含数据源名称、数据源所在地域、数据库类型、数据库的...

功能特性

用于对文件系统的数据进行备份 创建快照 DBFS策略快照 自动快照策略可以为数据库文件存储周期性地创建快照备份数据,合理利用自动快照能提高数据安全和操作容错 自动快照概述 快照创建DBFS 基于快照克隆出与快照状态一致的数据库文件存储...

功能简介

数据同步为用户提供批量、实时多源异构数据的便捷同步或接入能力,系统提供完善的数据接入配置、任务运行监控等功能,有效保障数据接入的稳定性和可控性,满足各类平台、数据源及应用系统间的数据汇聚需求。通过数据同步的自定义同步任务...

配置IBM DB2输入组件

IBM DB2输入组件用于读取IBM DB2数据源的数据。同步IBM DB2数据源的数据至其他数据源的场景中,您需要先配置IBM DB2输入组件读取的源数据源信息,再配置数据同步的目标数据源。本文为您介绍如何配置IBM DB2输入组件。前提条件 在开始执行...

配置IBM DB2输入组件

IBM DB2输入组件用于读取IBM DB2数据源的数据。同步IBM DB2数据源的数据至其他数据源的场景中,您需要先配置IBM DB2输入组件读取的源数据源信息,再配置数据同步的目标数据源。本文为您介绍如何配置IBM DB2输入组件。前提条件 在开始执行...

产品简介

DLA Ganos是基于云原生数据湖分析(Data Lake Analytics,DLA)系统设计开发的,面向时空大数据存储与计算的数据引擎产品。基于DLA无服务器化(Serverless)数据湖分析服务与内置的Spark计算引擎,DLA Ganos打通了阿里云各个存储系统,如...

数据同步

数据同步提供批量、实时多源异构数据的便捷同步或接入能力,系统提供完善的数据接入配置、任务运行监控等功能,有效保障数据接入的稳定性和可控性,满足各类平台、数据源及应用系统间的数据汇聚需求。同时支持对存储在基于ArcGIS、超图等...

功能特性

数据迁移 数据迁移功能帮助您实现同构或异构数据源之间的数据迁移,适用于数据上云迁移、阿里云内部跨实例数据迁移、数据库拆分扩容等业务场景 功能集 功能 功能描述 参考文档 同构迁移 逻辑迁移 支持同构数据库间的数据迁移。自建MySQL...

存储空间分析

查看集群级别的数据量 通过 空间总览 可以查看当前集群的 总数据量、热数据量、冷数据量、以及 最近24小时 和 近一周日均 数据增长量。登录 云原生数据仓库AnalyticDB MySQL控制台,在左上角选择集群所在地域。在左侧导航栏,单击 集群...

配置Teradata输入组件

Teradata输入组件用于读取Teradata数据源的数据。同步Teradata数据源的数据至其他数据源的场景中,您需要先配置Teradata输入组件读取的源数据源信息,再配置数据同步的目标数据源。本文为您介绍如何配置Teradata输入组件。前提条件 已创建...

设置资产数据

单击编辑器右侧 数据 图标。在 数据 面板中,单击 配置数据源。在 设置数据源 页面中,可修改数据源的类型和脚本、配置数据过滤器并查看数据响应结果。修改数据源的类型和脚本 在 设置数据源 页面中,在 数据源类型 列表中可修改数据源...

数据查询与分析管控

DataWorks版本 下载数据条数上限(条)基础版 0 标准版 200,000 专业版 2000,000 企业版 5000,000 说明 版本降级时,可下载的数据条数上限值变化如下:如降级前的下载数据条数上限值,超过了降级后的下载数据条数最大值,则可下载的数据条...

通过上传本地数据新建数据

上传本地文件的方式导入业务所需的数据集,以便在模型画布中编辑业务模型时使用导入的数据集。本文介绍如何通过上传本地数据新建数据集。前提条件 已创建云计算资源作为存储数据源,具体操作,请参见 新建计算资源。已准备好待上传的数据表...

功能简介

数据同步为用户提供批量、实时多源异构数据的便捷同步或接入能力,系统提供完善的数据接入配置、任务运行监控等功能,有效保障数据接入的稳定性和可控性,满足各类平台、数据源及应用系统间的数据汇聚需求。同时支持对存储在基于ArcGIS、...

数据集成概述

数据集成是基于Dataphin构建的简单高效的数据同步平台,致力于提供具有强大的数据预处理能力、丰富的异构数据源之间数据高速稳定的同步能力。背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量...

升级数据库大版本

本文介绍云数据库MongoDB支持升级的数据库大版本以及如何升级数据库大版本。注意事项 升级分片集群实例的数据库大版本时,实例的协议类型需为 MongoDB协议。升级采用轮转升级的方式进行,升级过程中会自动对实例进行2~3次重启,请在业务低...

数据集成支持的数据

本文为您介绍离线集成、实时集成、整库迁移支持的数据源类型。不同集成类型适用场景 集成类型 适用场景 离线集成 适用于数据上云、云上数据迁移到本地业务系统等场景。例如,将本地数据库MySQL的数据迁移至阿里云数据库RDS中。整库迁移 ...

数据集成支持的数据

本文为您介绍离线集成、整库迁移支持的数据源类型。不同集成类型适用场景 集成类型 适用场景 离线集成 适用于数据上云、云上数据迁移到本地业务系统等场景。例如,将本地数据库MySQL的数据迁移至阿里云数据库RDS中。整库迁移 适用于将本地...

使用DataWorks(离线与实时)

MaxCompute支持通过DataWorks 数据集成 功能将其他数据源的数据以离线或实时方式导入MaxCompute,也支持将部分类型的本地文件数据导入MaxCompute。本文为您介绍使用DataWorks将数据导入MaxCompute的主要操作流程与注意事项。前提条件 已...

概述

当应用程序使用 testAcc 连接数据库,并查询某个表中的 name、age 和 hobby 时,Proxy会将 name 和 age 列的数据进行脱敏后再返回,hobby 列的数据则未进行脱敏原样返回。Proxy会对不同类型的数据进行不同的脱敏处理,具体脱敏处理说明如下...

集成与开发概览

DMS的数据集成与开发功能模块,针对数据全生命周期的集成、开发、服务三个阶段提供界面化的功能支持。功能简介 数据集成与开发功能模块支持多种计算、存储引擎,支持结构化、半结构化、非结构化数据的实时集成、离线集成、开发、服务,能够...

配置SQLServer数据

背景信息 标准模式的工作空间支持数据源隔离功能,您可以分别添加并隔离开发环境和生产环境的数据源,以保护您的数据安全。详情请参见 数据源开发和生产环境隔离。操作步骤 进入 数据源管理 页面。登录 DataWorks控制台。在左侧导航栏,...

添加适配数据

在使用数据集前需要先添加支持的数据源内容,本文介绍添加适配数据源的方法。如果通过上传本地数据源文件方式创建数据集请跳过本章节。背景信息 当前数据集功能仅支持以下三种数据源类型:RDS for MySQL 兼容MySQL数据库 RDS for ...

配置Oracle输入组件

Oracle输入组件用于读取Oracle数据源的数据。同步Oracle数据源的数据至其他数据源的场景中,您需要先配置Oracle输入组件读取的源数据源信息,再配置数据同步的目标数据源。本文为您介绍如何配置Oracle输入组件。前提条件 在开始执行操作前...

常见问题

支持开通企业版 V3的数据库引擎和地域请参见 各个版本支持的数据库和地域。重要 迁移操作免费,迁移完成前按照当前版本计费,迁移完成后按照迁移目标版本计费。迁移至企业版 V3(分段计费模式)的实例,SQL明细数据存储时长仅支持30天及...

配置PolarDB输入组件

PolarDB输入组件用于读取PolarDB数据源的数据。同步PolarDB数据源的数据至其他数据源的场景中,您需要先配置PolarDB输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置PolarDB输入组件。前提条件 在开始执行操作前,...

数据归档

这样的数据通常被称为“冷数据”,与之相对的概念被称为“热数据”。随着冷数据体量的不断变大,存储成本也会水涨船高。所以降低冷数据存储成本,提升热数据读取性能,对于使用时序引擎的企业用户具有现实意义。在Lindorm时序引擎中,随着...

数据源管理

鼠标hover在需要编辑的数据源上,单击 图标。修改后,单击 Enter 键即可。编辑数据源 登录 DataV控制台。在 功能导航 模块单击 数据源,进入数据源管理页面。鼠标hover在需要编辑的数据源上,单击 图标。以MySQL数据源为例,不同的数据源...

数据类型版本说明

MaxCompute目前提供了三种不同类型的数据类型版本,包括1.0数据类型、2.0数据类型以及Hive兼容数据类型,您可以根据业务需求选择合适的数据类型版本。本文为您介绍三种数据类型版本、选择数据类型版本以及查看和修改项目的数据类型版本。...

什么是数据安全中心

数据安全中心(Data Security Center,简称DSC),在满足等保2.0“安全审计”及“个人信息保护”的合规要求的基础上,为您提供敏感数据识别、数据安全审计、数据脱敏、智能异常检测 等数据安全能力,形成一体化的数据安全解决方案。...

典型场景

构建数据湖 实时数据湖:支持DB的CDC与消息数据(如Kafka)入湖,构建大规模的可以增删改查的数据集,延迟为T+10分钟。一键建仓:支持数据库一键入湖,T+1天。文件上传:数据上传后,DLA元数据发现功能可自动发现并构建好元数据体系。数据...

开发前准备:绑定数据源或集群

若您要在DataWorks中进行数据建模、数据开发或使用运维中心周期性调度任务,需先将已创建的数据源或集群绑定至数据开发(DataStudio)模块。绑定后,才可读取数据源或集群中的数据,并进行相关开发操作。前提条件 您需根据后续要开发和调度...

创建RDS MySQL数据订阅通道

通过数据订阅功能,您可以实时订阅源库的增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文将介绍如何创建RDS MySQL数据订阅通道。注意事项 由于使用gh-ost或pt-online-schema-change等类似...

全量数据同步

通过选择已注册的数据源端数据和目标端,实现全量任务自动建表的方式创建离线同步周期任务,本文介绍如何创建MySQL to MaxCompute离线全量数据同步一次性调度的任务。前提条件 已新建工作组,具体操作,请参见 新建工作组。已在工作组中...

数据集管理

鼠标hover在需要编辑的数据集上,单击数据集名称后的 图标。修改后,单击 Enter 键即可。说明 修改数据集 描述 步骤类似,请参见重命名数据集。编辑数据集 登录 DataV控制台。在 功能导航 模块单击 数据集,进入数据集管理页面。鼠标hover...

查看敏感数据识别结果

数据类型:在 数据目录 页签左侧 数据类型 区域,选中需要查看敏感数据识别结果的数据类型。仅支持在 结构化数据、半结构化数据、非结构化数据 或 大数据 分类下分别选择一个或多个数据类型,不支持跨分类同时选择多个数据类型。如果您未...

热力层

热力层是三维城市构建器的数据映射图层,能够使用热力网格点的形式表现地理位置上的点数据信息。热力层图层支持独立的样式和数据配置,包括热力层网格数、透明度、热力半径和色带等参数。本文介绍热力层配置项的含义。在场景编辑器左侧图层...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 云数据库 RDS 数据库备份 DBS 阿里邮箱 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用