数据安全治理的必要性

而当下,企业开展数据安全治理活动则是要让自己 合规,合规的目的并不是为了向监管部门“交作业”,而是让每一个被搜集数据的公民享有自己的合法权益、保证个人隐私不受侵犯,让个人享受到数据带来的便利、效益和福祉,这是企业社会责任的...

合规&认证

个人信息保护 瓴羊智能服务公司积极跟进国内、国际对产品合规的要求,不仅积极对接各级监管机构,确保提供的产品和服务符合要求,也设立专门的团队对⽤户隐私协议、产品的隐私性保护设计、⽤户隐私数据的收集与使⽤进⾏审查,确保⽤户的...

DataWorks数据服务对接DataV最佳实践

MaxCompute服务于批量结构化数据的存储和计算,已经连续多年稳定支撑阿里巴巴全部的离线分析业务。过去,如果您想要通过DataV展示海量数据的分析结果,需要自建一套离线数据计算自动导入MySQL的任务流程,过程繁琐且成本高。现在通过...

优化器信息收集

MaxCompute的优化器是基于代价的优化器,需要基于数据的一些特征(即元数据),例如行数、字符串平均长度,准确估算代价。本文为您介绍MaxCompute收集元数据的方法,为优化查询性能提供帮助。背景信息 如果获取不到准确的元数据,优化器会...

实时同步能力说明

实时同步任务配置 实时同步任务配置时支持的能力如下,您无需编写代码,通过简单的任务配置即可实现单表ETL实时同步,整库实时数据的收集。详情请参见:配置单表实时同步任务、配置整库实时同步任务。单表增量数据实时同步:支持图形化开发...

文档修订记录

DataWorks数据安全治理路线 2023年12月更新记录 时间 特性 类别 描述 产品文档 2023.12.29 新增功能 数据开发 若您要在DataWorks中进行数据建模、数据开发或使用运维中心周期性调度任务,需先将已创建的数据源或集群绑定至数据开发...

采集数据

本教程以MySQL中的用户基本信息(ods_user_info_d)表及OSS中的网站访问日志数据(user_log.txt)文件,通过数据集成离线同步任务分别同步至MaxCompute的ods_user_info_d、ods_raw_log_d表为例,为您介绍如何通过DataWorks数据集成实现异构...

采集数据

本教程以MySQL中的用户基本信息(ods_user_info_d)表及OSS中的网站访问日志数据(user_log.txt)文件,通过数据集成离线同步任务分别同步至MaxCompute的ods_user_info_d、ods_raw_log_d表为例,为您介绍如何通过DataWorks数据集成实现异构...

数据

说明 在指定时间范围补数据的任务流实例数量没有限制。时间范围内运行的任务是串行运行的,即必须一个业务时间的任务执行成功,下一个业务时间才可执行任务。若需要停止时间范围内运行的任务,请前往运维中心,找到正在运行的目标任务,...

数据质量教程概述

业务场景 要保证业务数据质量,首先您需要明确数据的消费场景和加工链路。本教程使用的数据来源于某网站上的HTTP访问日志。基于这份网站日志,您可以统计并展现网站的浏览次数(PV)和独立访客(UV),并能够按照用户的终端类型(如Android...

数据质量教程概述

业务场景 要保证业务数据质量,首先您需要明确数据的消费场景和加工链路。本教程使用的数据来源于某网站上的HTTP访问日志。基于这份网站日志,您可以统计并展现网站的浏览次数(PV)和独立访客(UV),并能够按照用户的终端类型(如Android...

数据传输服务(上传)场景与工具

实时数据通道:DataHub是流式数据(Streaming Data)的处理平台,提供对流式数据的发布(Publish)、订阅(Subscribe)和分发功能,支持流式数据归档至MaxCompute。功能介绍 批量数据通道上传 使用批量数据通道上传数据时,可以通过单个...

功能特性

阿里云Flink(流式)DataHub(实时)DataHub是MaxCompute提供的流式数据处理(Streaming Data)服务,它提供流式数据的发布(Publish)和订阅(Subscribe)的功能构建基于流式数据的分析和应用。DataHub(实时)SLS投递 将日志服务采集的...

概述

Header(Map)|Body(byte[])|-Flume Event Source 是数据源收集器,从外部数据源收集数据,并批量发送到一个或多个Channel中。常见Source如下:Avro Source:通过监听Avro端口获取Avro Client发送的事件。Avro是Hadoop提供的一种协议,用于...

确定需求

完成业务调研后,您需要进一步收集数据使用者的需求,进而对需求进行深度的思考和分析。需求分析的途径有两种:根据与分析师和业务运营人员的沟通获知需求。对报表系统中现有的报表进行研究分析。在需求分析阶段,您需要沉淀出业务分析或...

确定需求

完成业务调研后,您需要进一步收集数据使用者的需求,进而对需求进行深度的思考和分析。需求分析的途径有两种:根据与分析师和业务运营人员的沟通获知需求。对报表系统中现有的报表进行研究分析。在需求分析阶段,您需要沉淀出业务分析或...

通用数据开发

数据分析与处理:完成数据的同步后,可以对MaxCompute中的数据进行加工(MaxCompute SQL、MaxCompute MR)、分析与挖掘(数据分析、数据挖掘)等处理,从而发现其价值。数据提取:分析与处理后的结果数据,需要同步导出至业务系统,以供...

基本概念

同步延迟 同步延迟是指同步到目标数据库的最新数据的时间戳,与源数据库的当前时间戳之间的差值。如果同步延迟为0,则源数据库与目标数据库的数据完全同步。数据更新 数据更新是指仅修改数据,未修改结构定义的操作,例如INSERT、DELETE和...

产品架构

数据同步包括以下两个阶段:同步初始化:DTS先开始收集增量数据,然后将源数据库的结构和存量数据加载到目标数据库。数据实时同步:DTS同步正在进行的数据变更,并保持源数据库和目标数据库的同步。为了同步正在进行的数据变更,DTS使用两...

Global AWR用户指南

自动负载信息库AWR(Automatic Workload Repository)是数据库收集和分析性能数据的工具。通过AWR工具,可以从数据库的动态视图等统计信息中生成某个时间段的性能报告。概述 PolarDB PostgreSQL版 的Global AWR性能报告功能,在提供数据库...

云数据库 RDS MySQL 版收集表的统计信息

概述 本文介绍云数据库 RDS MySQL 版如何收集表的统计信息。详细信息 阿里云提醒您:如果您对实例或数据有修改、变更等风险操作,务必注意实例的容灾、容错能力,确保数据安全。如果您对实例(包括但不限于ECS、RDS)等进行配置与数据修改...

Global AWR用户指南

自动负载信息库AWR(Automatic Workload Repository)是数据库收集和分析性能数据的工具。通过AWR工具,可以从数据库的动态视图等统计信息中生成某个时间段的性能报告。概述 PolarDB PostgreSQL版(兼容Oracle)的Global AWR性能报告功能,...

Global AWR用户指南

自动负载信息库AWR(Automatic Workload Repository)是数据库收集和分析性能数据的工具。通过AWR工具,可以从数据库的动态视图等统计信息中生成某个时间段的性能报告。概述 PolarDB PostgreSQL版(兼容Oracle)的Global AWR性能报告功能,...

管理数据库资产

添加数据库后,您需要进行以下操作:您必须在已添加的数据库服务器上部署数据库审计的Agent程序,才能使数据库审计服务收集目标数据库的访问流量信息。具体操作,请参见 安装Agent。您可以为已添加的数据库配置审计规则,使命中规则的审计...

迁移 OceanBase 数据库 MySQL 租户的数据至 MySQL ...

参数 描述 读取并发配置 该参数用于配置全量迁移阶段从源端读取数据的并发数,最大限制为 512.并发数过高可能会造成源端压力过大,影响业务。写入并发配置 该参数用于配置全量迁移阶段往目标端写入数据的并发数,最大限制为 512。并发数过...

数据上云工具

您可以根据实际应用场景,选择合适的工具进行数据的上传和下载。阿里云数加产品 MaxCompute客户端(Tunnel通道系列)客户端基于 批量数据通道 的SDK,实现了内置的Tunnel命令,可对数据进行上传和下载,Tunnel命令的使用请参见 Tunnel命令...

迁移 OceanBase 数据库 Oracle 租户的数据至 Oracle ...

参数 描述 读取并发配置 该参数用于配置全量迁移阶段从源端读取数据的并发数,最大限制为 512.并发数过高可能会造成源端压力过大,影响业务。写入并发配置 该参数用于配置全量迁移阶段往目标端写入数据的并发数,最大限制为 512。并发数过...

迁移 TiDB 数据库的数据至 OceanBase 数据库 MySQL ...

参数 描述 读取并发配置 该参数用于配置全量迁移阶段从源端读取数据的并发数,最大限制为 512.并发数过高可能会造成源端压力过大,影响业务。写入并发配置 该参数用于配置全量迁移阶段往目标端写入数据的并发数,最大限制为 512。并发数过...

使用数据传输迁移数据

参数 描述 读取并发配置 该参数用于配置全量迁移阶段从源端读取数据的并发数,最大限制为 512.并发数过高可能会造成源端压力过大,影响业务。写入并发配置 该参数用于配置全量迁移阶段往目标端写入数据的并发数,最大限制为 512。并发数过...

迁移 MySQL 数据库的数据至 OceanBase 数据库 MySQL ...

参数 描述 读取并发配置 该参数用于配置全量迁移阶段从源端读取数据的并发数,最大限制为 512.并发数过高可能会造成源端压力过大,影响业务。写入并发配置 该参数用于配置全量迁移阶段往目标端写入数据的并发数,最大限制为 512。并发数过...

管理数据库资产

编码 否 在下拉列表中选择审计数据的编码类型。支持以下类型:自动识别(默认取值)UTF-8(AL32UTF8)UTF-16 GBK(ZHS16GBK)ASCII ISO-8859-1 GB2312 GB13000 GB18030 UCS-2 BIG5(ZHT16BIG5,ZHT32EUC)说明 如果您不清楚数据库的编码类型...

统计信息

由于统计信息功能是在集群内核版本为3.1.6及以上版本的 AnalyticDB MySQL 数仓版(3.0)集群才默认开启的,所以当集群内核版本从3.1.6以下版本升级到3.1.6及以上版本时,会触发一次全量数据的统计信息收集,导致集群内核版本完成升级后的...

快速实现数据分类分级

数据安全中心DSC(Data Security Center)是一款数据安全中心产品,可以通过收集和分析数据库的信息,提供云上数据的分类分级(包括敏感数据识别)能力。本文介绍如何快速在DSC控制台实现数据分类分级。前提条件 已规划好要接入数据安全...

ADAM概览

异构数据库迁移ADAM(Advanced Database&Application Migration)提供数据库平滑迁云解决方案,全面评估上云可行性、成本和云存储选型,内置实施协助、数据迁移、应用迁移等工具,覆盖数据库迁移的全生命周期,帮助企业降低数据库和应用...

OceanBase 数据库之间的数据迁移

参数 描述 读取并发配置 该参数用于配置全量迁移阶段从源端读取数据的并发数,最大限制为 512.并发数过高可能会造成源端压力过大,影响业务。写入并发配置 该参数用于配置全量迁移阶段往目标端写入数据的并发数,最大限制为 512。并发数过...

DataWorks On CDP/CDH使用说明

CDP是跨平台收集和整合客户数据的公共数据平台,可帮助您收集实时数据,并将其构建为单独的用户数据使用。您可在DataWorks中注册CDH及CDP集群,基于业务需求进行相关任务开发、调度、数据地图(元数据管理)和数据质量等一系列的数据开发和...

后续指引

用户规划与管理 角色规划 MaxCompute权限 Package的权限控制 Label权限控制 安全管理 项目、数据安全 MaxCompute提供项目及数据的安全保护机制,例如动态脱敏、数据加密等。介绍:安全参数列表 数据保护机制 动态脱敏 备份与恢复 存储加密 ...

迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle...

本文为您介绍如何使用数据传输迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle 租户。重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输将主动...

采集数据

本文为您介绍如何新建OSS和RDS数据源来访问本教程所提供的用户信息与网站日志数据,配置数据同步链路至私有OSS数据源,并通过EMR Hive节点建表去查询同步后的数据,完成数据同步的操作过程。前提条件 开始本文的操作前,请准备好需要使用的...

2021年

MaxCompute可以利用DLF对湖数据的元数据管理能力,提升对OSS半结构化格式(AVRO、CSV、JSON、PARQUET、ORC)数据的处理能力。与Hadoop HDFS构建湖仓一体能力:通过MaxCompute和Hadoop HDFS(包括本地机房搭建、基于云上虚拟机搭建以及阿里...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 DBS 云数据库 RDS 云数据库 Redis 版 数据传输服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用