管理数据分级

查看数据分级 在 数据分级 页面,查看系统中的数据分级及每个数据分级的详细信息。区域 描述 ① 搜索区 您可以根据数据分级的名称关键字,快速搜索数据分级。② 数据分类信息 为您展示数据分级、数据分级的名称、更新人、更新时间、分级...

管理数据分级

查看数据分级 在 数据分级 页面,查看系统中的数据分级及每个数据分级的详细信息。区域 描述 ① 搜索区 您可以根据数据分级的名称关键字,快速搜索数据分级。② 数据分类信息 为您展示数据分级、数据分级的名称、更新人、更新时间、分级...

在GDB控制台清除实例数据

当图数据库GDB实例中的数据不再使用但需要保留该实例时,您可以通过图数据库GDB提供的清除数据功能清除实例中的数据。本文介绍在图数据库GDB控制台上清除图数据库GDB实例数据的方法。注意事项 清除实例数据后仅保留实例账号信息,且清除的...

Catalog概述

基本概念 内部数据:保存在StarRocks中的数据。外部数据:保存在外部数据源(例如Apache Hive、Apache Iceberg和Apache Hudi)中的数据。Catalog StarRocks 2.3及以上版本支持Catalog功能,方便您轻松访问并查询存储在各类外部源的数据。...

数据迁移与同步FAQ

数据迁移:将Redis数据库中的数据(即键值对)迁移至另一个Redis数据库中。通常迁移完成后即可停止该任务,属于一次性任务。数据同步:将Redis数据库中的数据(即键值对)实时同步至另一个Redis数据库中。通常会持续运行该任务,用于保持源...

添加数据库

进入控制台,单击左侧导航栏中的 数据库信息,进入 数据库信息 页面,然后单击右上角的 添加数据库 按钮。说明 这种情况下弹出的对话框中,数据库网关需要从下拉列表中选择。填写数据库的相关信息。数据库信息 描述 数据库网关 网关名称。...

iframe

当数据接口请求失败时 数据接口请求失败时(请求失败的情况可能是:网络问题或接口报错等)返回并经过过滤器处理后抛出的事件,同时抛出处理后的JSON格式的数据。具体数据示例请参见画布编辑器组件右侧配置面板 数据 页签 数据响应结果...

Quick BI

Quick BI是一款专为云上用户和企业量身...将ClickHouse数据库中的数据表或自建的即席分析SQL添加到Quick BI,请参见 创建并管理数据集。添加可视化图表并分析数据,请参见 新建仪表板 和 可视化图表概述。钻取并深度分析数据,请参见 钻取。

创建HDFS数据

项目管理员配置请参见 添加项目成员 创建HDFS数据源前,请确认Dataphin的IP地址已在HDFS的网络白名单中,以确保Dataphin能够访问HDFS中的数据。操作步骤 请参见 数据源管理入口,进入数据源管理页面。按照下图指引,进入 新建数据源 对话框...

数据地图概述

说明 如果RAM用户无某张表的查询权限,默认情况下将无法通过数据地图表详情页中的数据预览功能来查看该表数据。MaxCompute表数据预览权限控制 您可以在 配置管理>项目管理配置 中对具体工作空间的MaxCompute开发表或生产表开启预览权限,...

Catalog概述

基本概念 内部数据:保存在StarRocks中的数据。外部数据:保存在外部数据源(例如,Apache Hive、Apache Iceberg和Apache Hudi)中的数据。Catalog StarRocks 2.3及以上版本支持Catalog功能,方便您轻松访问并查询存储在各类外部源的数据。...

敏感数据保护

敏感数据的数据集成加解密 如果在数据上云、数据交换等场景,需要对传输中的数据进行加解密保护,则可以使用Dataphin的集成加解密能力,对集成的数据进行加解密保护。加密后的数据只有拥有密钥权限的用户才能够进行查看,从而更好地保护...

敏感数据保护

敏感数据的数据集成加解密 如果在数据上云、数据交换等场景,需要对传输中的数据进行加解密保护,则可以使用Dataphin的集成加解密能力,对集成的数据进行加解密保护。加密后的数据只有拥有密钥权限的用户才能够进行查看,从而更好地保护...

概述

Spark全密态数据计算引擎常用于解决数据存储与计算安全、敏感数据合规和数据安全共享场景中的数据安全问题。以下是常见的应用场景:数据存储与计算安全场景:在不可信环境中(如第三方平台),Spark全密态计算引擎 可以为关键的数据分析...

数据节点管理

在弹框中输入资源池名称,在高级选项中可以选择数据节点,支持将_recyle存储资源池中的数据节点关联到新建的自定义存储资源池。默认可以不选择,等自定义存储资源池创建后通过增加数据节点的方式添加数据节点。单击 确定。创建完成后可在...

管理数据库资产

重要 数据库审计仅支持审计内网中的数据库访问流量,不支持审计公网中的数据库访问流量。添加数据库 登录数据库审计系统。具体操作,请参见 登录数据库审计系统。在左侧导航栏,选择 资产>资产管理。在 资产 页面,单击 添加。在 添加资产 ...

透明数据加密概述

加密解密流程 所有加密解密操作均在内存中进行,内存中的数据是明文,磁盘中的数据是密文,这可以避免因磁盘被盗而产生的数据泄露问题,同时数据库的使用方式保持不变,没有适配成本。数据库启动时会从KMS获取KEK,从而解密DEK,解密后的...

手动添加数据

单击左侧导航栏中的 数据源,然后在上方选择目标地域。单击 添加数据源。在 添加数据源 弹窗中,配置以下信息。配置项 说明 数据源类别 本示例中,选择 云数据库。说明 数据库备份DBS 支持的数据源类型,请参见 支持的数据源。数据源名称 ...

导入数据

本文为您介绍如何通过MaxCompute客户端,使用Tunnel Upload将本地数据文件中的数据导入创建好的表中。前提条件 请确认您已满足如下条件:已创建表。更多创建表操作,请参见 创建表。已将CSV或TXT数据文件下载至本地。本文提供的数据文件样...

功能特性

创建同步MaxCompute 同步ADS 同步Datahub中的数据至ADS指定的具体表中 创建同步ADS 同步ElasticSearch 同步Datahub中的数据至ElasticSearch指定的具体index中 创建同步ElasticSearch 同步函数计算 同步Datahub中的数据至函数计算指定的...

数仓规划概述

完成设计后,模型设计师在建模过程中可以依赖数仓规划中的数据分层、业务分类、数据域、业务过程等对所建模型进行分层化域管理。数仓分层 您可以结合业务场景、数据场景综合考虑设计数仓的数据分层,DataWorks为您默认创建业界通用的五层数...

数据流运维

您可以在数据流运维中心查看数据流的...对于执行中的数据流,可以终止或暂停数据流运行。单击 发布列表 页签,查看数据流的 版本ID,发布人,发布时间、版本 详情 和 DAG图。您还可以选中任意2个 版本ID,单击 版本对比,查看版本的对比信息。

系统配置

主账号:表示管控主账号所属工作空间中的数据。子账号:表示管控子账号所属工作空间中的数据。内容识别 用于控制数据保护伞是否对数据库中的表数据进行抽样和扫描。若关闭内容识别,敏感数据识别中基于内容的识别规则将不生效,但基于字段...

DataWorks节点合集

引擎计算类节点 您可在具体业务流程,选择在某引擎下新建对应类型的引擎节点,基于该节点进行数据开发,并将引擎代码下发至对应的数据清洗引擎上执行。引擎计算类型节点介绍如下。说明 请先为DataWorks工作空间开通对应的服务或绑定所需...

批量添加数据

单击左侧导航栏中的 数据源,然后在上方选择目标地域。单击 添加数据源。从 数据源类别 列表中选择 批量导入。在 批量数据源 文本框中,输入数据源信息。每行输入格式为$instanceName,$host,$port,region,MySQL,$account,$password,输入...

生成数据API

数据服务解决从数仓到应用的“最后一公里”,将数据源中的数据表快速生成数据API,在API网关进行统一管理和发布。实现低成本、易上手、安全稳定的数据共享与开放。背景信息 为了将最终分析的结果加速查询后开放出API接口对接三方服务,本次...

iframe

数据项配置 说明 数据源 组件的数据通过 代码编辑 或 可视化编辑 展示了组件所包含的数据字段。也可以修改 数据类型,灵活配置组件数据数据映射 当您需要自定义图表字段配置时,可以在 数据映射 模块设置不同的字段映射内容,将这些...

实例间的数据库复制

RDS SQL Server部分实例支持实例间复制数据库功能,您可以通过RDS控制台或者OpenAPI将一个实例中的数据库复制到另外一个实例中。前提条件 RDS实例必须满足以下条件:源实例和目标实例必须在一个阿里云账号下。源实例和目标实例的版本必须...

数据保护伞入门

步骤一:配置数据分类分级 您可对当前的数据资产按照数据价值、内容敏感程度、影响和分发范围进行敏感级别划分,不同敏感级别的数据有不同的管控原则和数据开发要求。DataWorks提供了内置的分类分级模板,您也可基于业务需要,在数据保护伞...

日志服务通过数据集成投递数据

单击左侧导航栏中的 数据源。在 数据源列表 页面,单击 新增数据源。在 新增数据源 对话框中,选择数据源类型为 LogHub。填写 新增LogHub数据源 对话框中的配置。参数 描述 数据源名称 数据源名称必须以字母、数字、下划线组合,且不能以...

敏感数据溯源

您可以将DataWorks中的数据文件导出或下载至本地,再上传至溯源任务中进行溯源,也可以将外部系统的数据保存至CSV文件,再上传至溯源任务中进行溯源。目标文件上传成功后,您还可以选择 替换 或 下载 该文件。单击 开始溯源,启动目标溯源...

创建数据板块

模式 描述 Dev-Prod模式 生成相互隔离的Dev和Prod数据板块,更强保障Prod数据板块中的数据安全。如果您管理诉求较强,数据研发人员较多且能力及分工明确,数据计算存储预算较高,推荐 此模式。创建Dev-Prod模式数据板块,请参见 创建Dev-...

创建数据板块

模式 描述 Dev-Prod模式 生成相互隔离的Dev和Prod数据板块,更强保障Prod数据板块中的数据安全。如果您管理诉求较强,数据研发人员较多且能力及分工明确,数据计算存储预算较高,推荐 此模式。创建Dev-Prod模式数据板块,请参见 创建Dev-...

迁移

增量迁移开始后,当源库和目标库中的数据大致追平后(表现为增量迁移的延迟在30秒以内),将自动开始 数据校验,校验源库和目标库中的数据一致性,确保两端数据是动态一致的。说明 以上三种迁移状态若出现错误提示,或者长时间没有进度变化...

概述

技术原理 归档为 CSV 或 ORC 格式的技术原理图如下:集群中的热数据存储在共享存储(PolarStore)中,各个 PolarDB 节点通过分布式文件系统(PolarFileSystem)访问PolarStore中的数据。为降低数据存储成本,达到冷热数据分离管理的目的,...

观远BI连接MaxCompute

SQL版本 目前支持MaxCompute中的数据类型1.0和2.0版本。请您根据需求选择,更多详情请参见 数据版本类型。MCQA 查询加速功能开关。如果您需要启用查询加速功能,该项需设置为 yes。观远BI 4.0及以上版本支持MaxCompute加速查询,更多查询...

功能特性

多可用区部署 备份恢复 Lindorm宽表引擎支持数据备份恢复功能,基于数据生态服务中的数据迁移将数据存储至OSS中,定期全量备份数据,实时增量同步数据,来满足对数据备份和数据恢复的需求。备份恢复 产品生态 功能集 功能 功能描述 参考...

订阅方案概览

数据更新 结构更新 创建PolarDB-X 1.0数据订阅任务 PolarDB-X 2.0 重要 PolarDB-X中的数据库须基于RDS MySQL创建,DTS暂不支持基于 PolarDB MySQL版 创建的数据库。数据更新 结构更新 创建PolarDB-X 2.0数据订阅任务 PolarDB PostgreSQL版...

查看数据同步项目的详情

结束中的数据同步项目不能进行任何操作。已结束:表示数据同步项目已经成功结束运行。您可以对处于 未启动、运行中、已暂停 和 失败 状态的项目进行修改项目名称操作,详情请参见 修改数据同步项目的名称。查看基本信息 基本信息 区域为您...

订阅方案概览

数据更新 结构更新 创建PolarDB-X 1.0数据订阅任务 PolarDB-X 2.0 重要 PolarDB-X中的数据库须基于RDS MySQL创建,DTS暂不支持基于 PolarDB MySQL版 创建的数据库。数据更新 结构更新 创建PolarDB-X 2.0数据订阅任务 PolarDB PostgreSQL版...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 云数据库 Redis 版 云数据库 RDS 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用