添加及管理识别结果

系统根据已配置的识别规则和血缘继承配置自动生成识别结果,此外,您也可以手动指定识别结果或通过Excel批量上传识别结果,本文为您介绍如何添加及管理识别结果。权限说明 安全管理员支持添加及管理所有识别结果。项目管理员支持管理自己所...

添加及管理识别结果

系统根据已配置的识别规则和血缘继承配置自动生成识别结果,此外,您也可以手动指定识别结果或通过Excel批量上传识别结果,本文为您介绍如何添加及管理识别结果。权限说明 安全管理员支持添加及管理所有识别结果。项目管理员支持管理自己所...

使用Tunnel命令或Tunnel SDK

MaxCompute的客户端(odpscmd)、Studio等数据上传下载工具均通过Tunnel功能实现数据上传与下载,本文为您介绍如何使用Tunnel命令或Tunnel SDK上传数据至MaxCompute。前提条件 已经创建好MaxCompute项目,并用对应的工具连接MaxCompute。...

计算引擎审批策略

背景信息 您可以从 MaxCompute项目 维度或 数据保护伞分级分类 维度定义审批流程适用的数据范围,详情可参见 选择配置范围。使用限制 仅空间管理员、被授权 AliyunDataWorksFullAccess 的子账号有权限进行审批策略的操作。企业版的...

快速实现数据分类分级

数据安全中心DSC(Data Security Center)是一款数据安全中心产品,可以通过收集和分析数据库的信息,提供云上数据的分类分级(包括敏感数据识别)能力。本文介绍如何快速在DSC控制台实现数据分类分级。前提条件 已规划好要接入数据安全...

项目管理(新版)

项目(Project)是MaxCompute的基本组织单元,是进行多用户隔离和访问控制的主要边界。您开通MaxCompute服务后,需要通过项目使用MaxCompute。本文为您介绍如何通过MaxCompute新版控制台创建、管理MaxCompute项目。前提条件 阿里云账号或...

监控报警

监控报警方案 MaxCompute支持通过如下方式实现监控报警功能:通过 阿里云监控服务 配置 监控指标,对包年包月资源、实时作业消费、Tunnel上传下载数据量及作业运行时长 进行监控:通过监控大盘,实时观察监控图表,了解各监控指标的实时...

创建HDFS数据

通过创建HDFS数据源能够实现Dataphin读取HDFS的业务数据或向HDFS写入数据。本文为您介绍如何创建HDFS数据源。背景信息 HDFS集群由NameNode和DataNode构成master-worker(主从)模式:NameNode用于构建命名空间,管理文件的元数据等。...

开发者中心介绍

2 项目 拥有项目管理员权限的用户支持创建项目、为项目配置项目成员、并为项目划分数据库。项目中包含数据库、工单、成员、敏感数据资源项。项目为最小协作单元,工单是项目内最常用的协作方式,敏感数据项目内脱敏策略的管理中心。3...

创建TDH Inceptor数据

通过创建TDH Inceptor数据源能够实现Dataphin读取TDH Inceptor的业务数据或向TDH Inceptor写入数据。本文为您介绍如何创建TDH Inceptor数据源。使用限制 Dataphin仅支持 超级管理员、数据源管理员、板块架构师、项目管理员 角色创建数据源...

产品更新动态

2023年4月 发布时间 2023-04-25 功能名称 功能描述 相关文档 支持数据更新——实现卡片内容的动态数据呈现 通过数据库连接方式的数据源,可以设置数据更新频率,手动/周期完成数据内容的更新,目前支持的可更新数据源是:MySQL、ADB MySQL...

创建MongoDB数据

通过创建MongoDB数据源能够实现Dataphin读取MongoDB的业务数据或向MongoDB写入数据。本文为您介绍如何创建MongoDB数据源。背景信息 如果您使用的是MongoDB,在引入MongoDB的业务数据至Dataphin中或将Dataphin数据导出至MongoDB的场景中,您...

公告

新增支持OpenGauss数据源、SAP Table数据源、StarRocks数据源、Hudi数据源、Doris数据源、Greenplum数据源。资产质量新增跨源两表字段统计值一致性的质量规则模板,用于跨数据源的数据对比;有效性/字段格式校验的规则模板增加like表达式;...

功能发布记录 2022年之前

您可以通过报警联系人页面,将目标RAM用户或RAM角色添加为报警联系人,添加后,DataWorks会将任务运行出错时产生的报警发送至对应联系人,方便您及时发现并处理异常任务。2021.06 全部地域。查看和设置报警联系人 2021-05 功能名称 功能...

创建MongoDB数据

通过创建MongoDB数据源能够实现Dataphin读取MongoDB的业务数据或向MongoDB写入数据。本文为您介绍如何创建MongoDB数据源。背景信息 如果您使用的是MongoDB,在引入MongoDB的业务数据至Dataphin中或将Dataphin数据导出至MongoDB的场景中,您...

批量操作数据同步项目

本文为您介绍如何使用数据传输对数据同步项目进行批量操作。背景信息 数据传输支持在 同步项目列表 页面,对数据同步项目进行批量操作。不同状态的数据同步项目支持不同的批量操作。数据同步项目的状态 支持的批量操作 未配置 无 未启动 ...

权限管理与规范化数据开发

本实践将基于DataWorks标准模式空间完成从“数据建模”到“数据生产”的基本流程,帮助您快速掌握规范化的数据体系建设流程,提升在数据开发过程中的规范性、安全性、稳定性。背景信息 DataWorks采取RBAC权限模型供用户管理DataWorks所有...

什么是Dataphin

Dataphin是阿里巴巴集团OneData数据治理方法论内部实践的云化输出,一站式提供数据采、建、管、用全生命周期的大数据能力,以助力企业显著提升数据治理水平,构建质量可靠、消费便捷、生产安全经济的企业级数据中台。Dataphin兼容多种计算...

创建MySQL数据

通过创建MySQL数据源能够实现Dataphin读取MySQL的业务数据或向MySQL写入数据。本文为您介绍如何创建MySQL数据源。背景信息 MySQL是一种关系型数据库。常用于网站、应用程序和商业产品,是一种常见的主要关系数据存储系统。更多详情请参见 ...

元数据仓库共享模型标准访问方式

元数据共享模型是一系列元数据相关的物理表,基于Dataphin的系统元数据和相应计算引擎的元数据加工汇总而成,存储在Dataphin元仓租户下的元仓项目中,产出时效为T+1。若您需访问元仓共享模型,可以通过集成任务将元仓中所需的元仓共享模型...

创建FTP数据

通过创建FTP数据源能够实现Dataphin读取FTP的业务数据或向FTP写入数据。本文为您介绍如何创建FTP数据源。背景信息 FTP即文件传输协议。如果您使用的是FTP,在对接Dataphin进行数据开发或将Dataphin的数据写入至FTP的场景中,您需要先完成...

使用Copilot+增强分析实现一站式智能数据查询与可视化

基于以上操作,本教程展示了如何将本地数据单次手动上传到MaxCompute中,如需将业务生产过程中产生的数据定时同步至MaxCompute等大数据计算引擎中,推荐使用DataWorks数据集成,详情请参见 数据集成概述。附录:报告中所有卡片用到的SQL...

创建HBase数据

通过创建HBase数据源能够实现Dataphin读取HBase的业务数据或向HBase写入数据。本文为您介绍如何创建HBase数据源。背景信息 HBase是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是HBase,在导出Dataphin数据至HBase,您...

功能简介

数据中台建设过程中,搭建核心处理平台,并根据相关标准要求,将源数据或治理后的数据,按照“全面、高效、统筹”的共享原则,“低延时”、“精准化”地传递给用户,方便更多应用消费数据实现数据价值。协同管控各种组织机构,为智慧化...

新建及管理动态脱敏规则

动态脱敏是在不更改基础数据的情况下,仅改变最终展示的查询结果数据;脱敏规则用于管理脱敏的数据范围及具体的脱敏方式。本文为您介绍如何新建及管理动态脱敏规则。背景信息 动态脱敏规则常用于查询某些敏感的生产数据场景。对满足条件的...

新建及管理动态脱敏规则

动态脱敏是在不更改基础数据的情况下,仅改变最终展示的查询结果数据;脱敏规则用于管理脱敏的数据范围及具体的脱敏方式。本文为您介绍如何新建及管理动态脱敏规则。背景信息 动态脱敏规则常用于查询某些敏感的生产数据场景。对满足条件的...

创建FTP数据

通过创建FTP数据源能够实现Dataphin读取FTP的业务数据或向FTP写入数据。本文为您介绍如何创建FTP数据源。背景信息 FTP即文件传输协议。如果您使用的是FTP,在对接Dataphin进行数据开发或将Dataphin的数据写入至FTP的场景中,您需要先完成...

支持识别的行业模板

S3 电话(合作单位联系人)S3 邮箱(合作单位联系人)S3 手机号码(合作单位联系人)S3 姓名(合作单位联系人)合作单位基本信息 S2 单位类型(合作单位)S2 单位名称(合作单位)营销服务 渠道信息 线下自有渠道信息(公开)S1 柜面名称...

查询非结构化数据

StorageHandler:用于指定和配置自定义Extractor和Outputer的实现类。Outputer:自定义输出数据Outputer,用来实现自定义输出数据的逻辑,即如何写出非结构化数据。创建Extractor成功后,在编辑界面开发Java程序。代码框中模板已自动填充...

新建ArgoDB数据

通过创新建ArgoDB数据源能够实现Dataphin读取ArgoDB的业务数据或向ArgoDB写入数据。本文为您介绍如何新建ArgoDB数据源。权限说明 Dataphin仅支持 超级管理员、数据源管理员、板块架构师、项目管理员 角色创建数据源。操作步骤 在Dataphin...

数据保护伞概述

数据保护伞是一款数据安全管理产品,为您提供数据发现、数据脱敏、数据水印、访问控制、风险识别、数据溯源等多种功能,帮助您快速梳理敏感数据并进行安全管控,保障数据安全。本文为您介绍数据保护伞的使用流程、使用限制等内容。使用流程...

DataWorks产品安全能力介绍

为充分契合数据安全治理的核心理念与通用思路,DataWorks针对资产梳理、技术体系/运营体系建设提供了一系列全面的数据安全产品能力,基于“I(Identify)P(Protect)D(Detect)R(Respond)”理论框架,从资产识别、安全防护、行为检测、...

创建Kudu数据

通过创建Kudu数据源能够实现Dataphin读取Kudu的业务数据或向Kudu写入数据。本文为您介绍如何创建Kudu数据源。背景信息 Kudu提供接近于关系数据库管理系统(RDBMS)的功能和数据模型,提供类似于关系型数据库的存储结构来存储数据,允许用户...

搭建与管理(基于Hadoop)

通过MaxCompute与Hadoop构建湖仓一体方案旨在实现对海量数据的统一管理、存储和分析,提供了一个既能处理结构化、半结构化数据,又能满足高并发分析需求的一体化数据平台。本文为您介绍如何通过MaxCompute与Hadoop构建湖仓一体,以及管理湖...

创建Kafka数据

通过创建Kafka数据源能够实现Dataphin读取Kafka的业务数据或向Kafka写入数据。本文为您介绍如何创建Kafka数据源。背景信息 Kafka是一种消息队列,用于处理实时数据。Dataphin支持对接Kafka09、Kafka010、Kafka011。如果您使用的是Kafka,在...

创建Kafka数据

通过创建Kafka数据源能够实现Dataphin读取Kafka的业务数据或向Kafka写入数据。本文为您介绍如何创建Kafka数据源。背景信息 Kafka是一种消息队列,用于处理实时数据。Dataphin支持对接Kafka09、Kafka010、Kafka011。如果您使用的是Kafka,在...

项目编辑器页面管理

项目编辑器内可分为四个区域,包括空间实体、通用元素、数据详情和项目地图空间范围。本文介绍项目编辑器页面中各个功能的使用方法。空间实体 空间实体包括 环境、建筑、三维瓦片 和 地理服务 等。环境:包括 水体、绿地、道路 和 遥感影像...

项目编辑器页面管理

项目编辑器内可分为四个区域,包括空间实体、通用元素、数据详情和项目地图空间范围。本文介绍项目编辑器页面中各个功能的使用方法。空间实体 空间实体包括 环境、建筑、三维瓦片 和 地理服务 等。环境:包括 水体、绿地、道路 和 遥感影像...

创建Impala数据

通过创建Impala数据源能够实现Dataphin读取Impala的业务数据或向Impala写入数据。本文为您介绍如何创建Impala数据源。背景信息 Impala是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至...

新功能发布记录

OceanBase 数据库之间的数据迁移 支持 TiDB 数据库至 OceanBase 数据库 MySQL 租户的结构迁移、全量迁移、增量同步、全量校验和反向增量 迁移 TiDB 数据库的数据至 OceanBase 数据库 MySQL 租户 支持 PolarDB-X 1.0 数据库至 OceanBase ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 DBS 数据库审计 云数据库 RDS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用