ActionTrail日志清洗

系统默认的数据清洗时间是00:30,您可以根据业务规律,将数据清洗时间设置在业务低峰期,以免清洗过程中可能对业务造成的影响。完成上述参数配置后单击 创建,创建Schema。Schema创建成功后,DLA自动在您设定的同步时间将ActionTrail投递到...

背景信息以及准备工作

在使用DLA对OSS中的历史数据按天进行清洗时,由于数据清洗的SQL是固定的,只是每次执行的时候需要传入不同的日期,因此我们可以通过DataWorks来循环调度DLA数据清洗任务。针对上述场景,我们需要在DataWorks中完成以下工作:部署一个赋值...

配置ClickHouse输出组件

例如数据同步至ClickHouse数据源前需要自定义数据清洗的规则,您就可以填写准备语句。填写完成语句:导入后执行的SQL脚本。例如数据写入目标表A后,重命名目标表A为B,您就可以填写完成语句。输入字段 展示从源表中读取的字段。输出字段 ...

配置AnalyticDB for PostgreSQL输出组件

例如,数据同步至AnalyticDB for PostgreSQL数据源前自定义数据清洗的规则。填写完成语句:导入后执行的SQL脚本。例如,数据写入目标表A后,重命名目标表A为B。输入字段 展示从源表中读取的字段。输出字段 输出字段区域展示了已选中表及...

配置ClickHouse输出组件

例如数据同步至ClickHouse数据源前需要自定义数据清洗的规则,您就可以填写准备语句。填写完成语句:导入后执行的SQL脚本。例如数据写入目标表A后,重命名目标表A为B,您就可以填写完成语句。输入字段 展示从源表中读取的字段。输出字段 ...

配置AnalyticDB for PostgreSQL输出组件

例如,数据同步至AnalyticDB for PostgreSQL数据源前自定义数据清洗的规则。填写完成语句:导入后执行的SQL脚本。例如,数据写入目标表A后,重命名目标表A为B。输入字段 展示从源表中读取的字段。输出字段 输出字段区域展示了已选中表及...

应用场景

数据标准:管理数据标准和构建数据模型,将数据标准贯彻到数据质量分析、保障及检查的全过程中,将散乱的多源异构数据加工成标准、干净的数据资产,确保数据的完整性、一致性、准确性和可用性。数据建模:通过数据建模模块提供的各种数据...

数据开发:开发者

背景信息 DataWorks的数据开发(DataStudio)面向各引擎(MaxCompute、Hologres、EMR、CDH等)提供可视化开发界面,包括智能代码开发、数据清洗加工、规范化任务开发与发布等,保证数据开发的高效与稳定。更多数据开发模块的使用,详情请...

概述

背景信息 DMS数据分析提供典型的数据集、仪表盘和大屏模型,在仪表盘或大屏中提供丰富的可视化图表和组件来展示数据。您可以将数据库中的表或单条SQL查询结果作为数据集,在仪表盘或大屏中对数据集中的数据以表格、交叉表、折线图、柱条形...

冷热分层

通过结合Delta Lake和上下游组件,您可以搭建出一个便捷、易用、安全的数据湖架构。在数据湖架构设计中,通常会应用HTAP(Hybrid Transaction and Analytical Process)体系结构,通过合理地选择分层存储组件和计算引擎,既能支持海量数据...

透明数据加密概述

加密解密流程 所有加密解密操作均在内存中进行,内存中的数据是明文,磁盘中的数据是密文,这可以避免因磁盘被盗而产生的数据泄露问题,同时数据库的使用方式保持不变,没有适配成本。数据库启动时会从KMS获取KEK,从而解密DEK,解密后的...

DataWorks数据服务对接DataV最佳实践

DataV通过与DataWorks数据服务的对接,通过交互式分析Hologres连接DataWorks数据服务开发并生成API,快速在DataV中调用API并展现MaxCompute的数据分析结果。数据服务对接DataV产生背景 MaxCompute是阿里巴巴集团自主研究的快速、完全托管的...

创建ClickHouse数据

前提条件 若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据源与Dataphin网络互通。具体操作,请参见 数据源白名单配置。权限说明 Dataphin仅支持 超级管理员、...

调试实时任务

自动抽样数据 自动抽样到的数据是随机的,所以适用于对采集到的数据没有限制的场景。针对HBase、MySQL、MaxCompute、DataHub、Kafka数据源支持自动抽样数据,您可以单击 自动抽样,进行抽样数据。说明 Kafka中支持json、csv、canal-json、...

调试实时任务

自动抽样数据 自动抽样到的数据是随机的,所以适用于对采集到的数据没有限制的场景。针对HBase、MySQL、MaxCompute、DataHub、Kafka数据源支持自动抽样数据,您可单击 自动抽样,进行抽样数据。说明 Kafka中支持json、csv、canal-json、...

2021年

创建PolarDB MySQL版数据订阅任务 创建Oracle数据订阅任务 2021年4月 类别 功能描述 相关文档 新增 ETL(Extract Transform Load)功能正在新版控制台公测中,可用于实现数据库中数据的清洗和转换处理,能够准确、高效地提供您需要的数据。...

主备方案介绍

A:不会,双向同步中会根据集群ID区分是数据同步写入的数据还是客户端写入的数据,保证数据不会循环发送。Q:目标实例出现异常无法写入时,LTS是否会缓存数据?A:LTS不会缓存数据,数据同步中当目标实例无法写入时,会记录读取WAL的点位,...

常见问题

因为含增量任务的同步实例暂停期间,仅目标端的数据写入暂停,源端增量变化的数据依然会进行采集。为什么数据同步的价格要高于数据迁移的价格?因为数据同步具有更多的高级特性,例如支持在线调整同步对象、支持配置MySQL数据库之间的双向...

创建ClickHouse数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

独享数据集成资源组

功能介绍 独享数据集成资源组的功能亮点如下:支持复杂网络环境下的数据同步。例如,跨云环境(金融云、政务云等)、跨阿里云账号、本地IDC数据同步。具有丰富的产品能力:支持离线数据同步。例如,增量与全量数据同步,单表及分库分表数据...

通过数据同步功能同步SLS数据至湖仓版

通过 AnalyticDB for MySQL 的数据同步功能,您可以将SLS中指定时间点之后产生的数据实时同步至 湖仓版(3.0)集群,以满足日志数据实时分析的需求。前提条件 湖仓版(3.0)集群与日志服务SLS的 Project和 Logstore位于同一地域。具体操作...

通过数据同步功能同步SLS数据至数仓版

通过 AnalyticDB for MySQL 的数据同步功能,您可以将SLS中指定时间点之后产生的数据实时同步至 数仓版(3.0)集群,以满足日志数据实时分析的需求。前提条件 数仓版(3.0)集群与日志服务SLS的 Project和 Logstore位于同一地域。具体操作...

MongoDB 4.0

如果实例的数据库小版本过期或不在维护列表内,当执行以下操作时,为保证提供更出色的性能和稳定性,系统会默认将您的数据库小版本升级至最新版。升级数据库大版本 数据迁移 变更实例配置 按时间点将备份数据恢复至新建实例 恢复云数据库...

典型场景

数据ETL:DLA支持Spark,提供强大的数据ETL能力,把ODS层的原始数据清洗为结构化的DW数据。机器学习:DLA支持Spark,支持开源算法库。交互式分析:DLA提供Presto交互式分析,支持BI、分析师的数据分析诉求。联邦分析:同时连接多个数据源做...

快速体验

DataWorks为您提供智能建模、数据清洗、周期调度运维、数据治理等一站式大数据开发管理能力,本文以一个零售电商行业的数仓搭建实验为例,为您介绍DataWorks在数仓搭建过程中的技术选型、技术流程以及流程实现,帮助您深入了解阿里云...

01新建模型目录

DWD:全称Data Warehouse Detail,明细数据层,该层数据和源数据基本保持一致,保存着最细粒度的数据,一般存放所有的明细数据,是所有后期分析的数据基础。具有数据量大,查询计算较慢的特点。DWS:全称Data Warehouse Summary,汇总数据...

数据源权限管理

是否支持再次分享已被分享的数据源?数据源的创建者是否有权控制该数据源?什么是私有模式的数据源?哪些用户能够收回数据源的分享权限?如何检查数据源分享关系的移除、关联情况?分享数据源后,其资源组的连通状态是否会被同步分享?分享...

导入概述

为了更好地满足各种不同的业务场景,StarRocks支持多种数据模型,StarRocks中存储的数据需要按照特定的模型进行组织。本文为您介绍数据导入的基本概念、原理、系统配置、不同导入方式的适用场景,以及一些最佳实践案例和常见问题。背景信息...

导入概述

为了更好地满足各种不同的业务场景,StarRocks支持多种数据模型,StarRocks中存储的数据需要按照特定的模型进行组织。本文为您介绍数据导入的基本概念、原理、系统配置、不同导入方式的适用场景,以及一些最佳实践案例和常见问题。背景信息...

在GDB控制台清除实例数据

当图数据库GDB实例中的数据不再使用但需要保留该实例时,您可以通过图数据库GDB提供的清除数据功能清除实例中的数据。本文介绍在图数据库GDB控制台上清除图数据库GDB实例数据的方法。注意事项 清除实例数据后仅保留实例账号信息,且清除...

基本概念

数据同步 数据源:是指数据库应用程序所使用的数据库或者数据库服务器,在数据资源平台的数据同步中可以将配置好的数据源端数据同步到目标端。多源异构数据:指的是多种不同结构的数据源。数据模板:用于对非结构化数据的解释,当创建数据...

数据质量教程概述

在整体数据链路的处理过程中,为保证最终产出数据的质量,您需要对数据仓库ODS、CDM和ADS层的数据分别进行监控。数据仓库分层的定义请参见 数仓分层。本教程基于 搭建互联网在线运行分析平台 教程,ods_user_trace_log、dw_user_trace_log...

数据质量教程概述

在整体数据链路的处理过程中,为保证最终产出数据的质量,您需要对数据仓库ODS、CDM和ADS层的数据分别进行监控。数据仓库分层的定义请参见 数仓分层。本教程基于 搭建互联网在线运行分析平台 教程,ods_user_trace_log、dw_user_trace_log...

概述

向量数据库简介 在现实世界中,绝大多数的数据都是以非结构化数据的形式存在的,如图片,音频,视频,文本等。这些非结构化数据随着智慧城市、短视频、商品个性化推荐、视觉商品搜索等应用的出现而爆发式增长。为了能够处理这些非结构化...

资产安全概述

通过数据分类分级、敏感数据识别、敏感数据脱敏等措施,帮助客户建立完善的数据安全体系,确保数据使用的安全合规性。前提条件 已购买 资产安全 增值服务,详情请参见 开通Dataphin。应用场景 基于Dataphin实现数据安全保护的一些典型的...

资产安全概述

通过数据分类分级、敏感数据识别、敏感数据脱敏等措施,帮助客户建立完善的数据安全体系,确保数据使用的安全合规性。前提条件 已购买 资产安全 增值服务并且当前租户已开通 资产安全 模块。应用场景 基于Dataphin实现数据安全保护的一些...

概述

例如,实例中创建了2021年01月01日00:00:01的数据备份集以及该时间之后的日志,则可以恢复2021年01月01日00:00:01以来任意时间点(精确至秒)的数据。备份方式 PolarDB-X 支持自动备份与手动备份两种方式。自动备份:系统自动定期触发...

技术发展趋势

IDC在《Data Age 2025》的报告中预测,从2018年到2025年,全球数据将从33ZB急速增长到175ZB,比2016年产生的数据量增加了十倍。这表明注重数据价值的时代已经来临,并逐渐取代了从模拟数据向数字化转变的时期;产生、使用和管理对生活产生...

数据库分组

若您需要在SQL变更或结构设计中快速载入多个数据库,可以创建一个数据库分组,将多个数据库环境、引擎类型相同的数据库绑定成为一个分组。本文介绍如何创建数据库分组。背景信息 当您的业务部署在多个地域,且存在多个数据库时,您每次做...

配置数据脱敏

数据脱敏可以对实时同步的单表数据进行脱敏,然后存储到指定的数据库位置。前提条件 配置数据脱敏节点前,您需要先配置好相应的输入节点,详情请参见 实时同步支持的数据源。操作步骤 进入 数据开发 页面。登录 DataWorks控制台。在左侧...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 数据库备份 云数据库 RDS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用