DataWorks On Hologres使用说明

数据地图概述 安全中心 数据保护伞 审批中心 安全中心是集数据资产分级分类、敏感数据识别、数据授权管理、敏感数据脱敏、敏感数据访问审计、风险识别与响应于一体的一站式数据安全治理界面,帮助用户落地数据安全治理事项。安全中心概述 ...

Insert Into

如果有失败数据,则还会返回一个Label。可通过 SET enable_insert_strict=false 来设置。query_timeout INSERT INTO本身也是一个SQL命令,因此INSERT INTO语句也受到Session量query_timeout的限制。可以通过 SET query_timeout=xxx 来增加...

质量评估

质量评估通过用户自定义质量检查计划,根据用户设置的数据质量规则执行面向不同计算资源的质量检查任务,通过数据质量监控报告展现系统整体数据质量概览及多维度细分数据的质量情况。...支持下载失败数据的脏数据样例至本地进行查看。

数仓规划概述

使用DataWorks进行数据建模时,数仓架构师或者模型小组成员可以在数仓规划页面对数据分层、业务分类、数据域、业务过程、数据集市、主题域进行设计。完成设计后,模型设计师在建模过程中可以依赖数仓规划中的数据分层、业务分类、数据域、...

受众与核心能力

产品定位 DataWorks致力于为数据开发者、数据分析师、数据资产管理者,打造一个具备开放自主开发与全栈数据研发能力的一站式、标准化、可视化、透明化的智能大数据全生命周期云研发平台。DataWorks赋予用户仅通过单一平台,即可实现数据...

MaxCompute数据

如果数据转换失败,或数据写出至目的端数据失败,则将数据作为脏数据,您可以配合脏数据限制阈值使用。数据同步前准备:MaxCompute环境准备 读取或写入MaxCompute表数据时,您可以根据需要选择是否开启相关属性。连接MaxCompute并开启...

数据上传

否:如遇脏数据平台不会自动忽略,此次数据上传将被阻断。说明 支持 CSV、XLSX 格式,CSV 文件最大支持上传数据的数据量为5GB,XLSX 文件最大支持上传的数据量为100MB。默认上传文件的第一个Sheet。如需上传某个文件的多个Sheet数据,则...

风险识别规则

您可以直接使用DataWorks官方提供的扩展程序来对高危行为进行管控,也可以基于DataWorks开放平台自行开发、部署能够应对更加复杂场景的扩展程序作为风险识别规则,从而将自身企业内部风控平台能力延伸至云上DataWorks大数据平台。...

基本概念

数据资产:数据资源平台中存在大量的数据表、标签、API等各类数据资产,数据管理者通过数据汇聚、数据治理、数据分析后,需要对整个平台数据进行统一管控,了解平台的核心数据资产,提供对应的数据资产管理规范。统一服务 应用:是调用API...

ETL工作流快速体验

案例提供的数据仅用于阿里云大数据开发治理平台DataWorks数据应用体验。仅 空间管理员 角色可导入ETL模板至目标工作空间。如需给账号授予空间管理员角色,请参见 空间级模块权限管控。导入ETL工作流模板 您可以将DataWorks ETL工作流模板...

版本发布记录

深度集成的生态 接入融合分析和数据回流能力 目前支持如下数据源的接入融合分析和数据回流能力,包括对象存储OSS上7种以上结构化、半结构化、以及多种压缩格式的数据文件,表格存储,AnalyticDB,云数据库版或自建数据库(MySQL、...

通过DMS连接StarRocks实例

数据管理DMS(Data Management)是一款支撑数据全生命周期的一站式数据管理平台。您只需在DMS控制台录入StarRocks实例的相关信息,即可轻松实现通过图形化的Web界面对StarRocks实例的高效管控与深度运维,极提升数据管理体验及操作效率。...

JindoFS实战演示

云上计算云下数据:HDFS缓存加速 云上计算云下数据:HDFS缓存加速 2021-06-29 随着云计算越来越成熟,带来弹性扩容、运维方便、节省成本等优点,越来越多企业开始将大数据平台搬到云上。云下的HDFS集群存在历史数据,其中可能包含敏感数据...

配置FTP输入组件

FTP输入组件适用于从FTP中将数据读取至大数据平台对接的存储系统内,进行数据整合和再加工。本文为您介绍如何配置FTP输入组件。前提条件 已创建FTP数据源,详情请参见 创建FTP数据源。进行FTP输入组件属性配置的账号,需具备该数据源的同步...

配置FTP输入组件

FTP输入组件适用于从FTP中将数据读取至大数据平台对接的存储系统内,进行数据整合和再加工。本文为您介绍如何配置FTP输入组件。前提条件 已创建FTP数据源,详情请参见 创建FTP数据源。进行FTP输入组件属性配置的账号,需具备该数据源的同步...

通过上传本地数据新建数据

上传本地文件的方式导入业务所需的数据集,以便在模型画布中编辑业务模型时使用导入的数据集。本文介绍如何通过上传本地数据新建数据集。前提条件 已创建云计算资源作为存储数据源,具体操作,请参见 新建计算资源。已准备好待上传的数据表...

执行补数据并查看补数据实例(旧版)

数据可通过补历史或未来一段时间的数据,将写入数据至对应时间分区。代码中的 调度参数,将根据补数据选择的业务时间自动替换为具体值,并结合业务代码将对应时间数据写入指定分区。具体写入的分区与执行的代码逻辑,与任务定义的代码...

执行补数据并查看补数据实例(新版)

数据可通过补历史或未来一段时间的数据,将写入数据至对应时间分区。代码中的 调度参数,将根据补数据选择的业务时间自动替换为具体值,并结合业务代码将对应时间数据写入指定分区。具体写入的分区与执行的代码逻辑,与任务定义的代码...

准备环境

前提条件 大数据开发治理平台DataWorks:购买DataWorks,详情请参见 购买指引。说明 因本示例提供的数据资源都在华东2(上海),建议购买时选择地域为华东2(上海)。对象存储OSS:已开通OSS服务,具体步骤,请参见 开通OSS服务。步骤一:...

配置跨库Spark SQL节点

示例:某消费服务平台使用的是MySQL数据库,需要在数据仓库 AnalyticDB PostgreSQL版 中对消费数据进行消费金额、消费笔数等的统计分析,将统计分析后的数据回传到消费服务平台上,供用户进行在线查询。将MySQL中的增量消费数据同步到 ...

数据质量概述

DataWorks平台将会根据数据质量规则强弱和数据质量规则校验结果决定任务是否由于质量规则校验失败而退出,并阻塞下游节点执行,防止脏数据影响范围进一步扩大。查看校验结果 您可以通过运维中心节点运行日志和数据质量任务查询页面查看数据...

高效数据治理实施指南

以某公司数据平台团队的数据治理负责人为例,其负责本团队的数据成本管理工作,同时也是DataWorks所有数仓工作空间的管理员,日常需要进行整个数据团队的运维管理工作和成本管理工作,对数据治理相关工作进行确定和推进。目前在年初阶段,...

自建Oracle迁移至DataHub

阿里云流式数据服务DataHub 是流式数据(Streaming Data)的处理平台,提供对流式数据的发布、订阅和分发功能,让您可以轻松构建基于流式数据的分析和应用。本文介绍如何使用数据传输服务DTS(Data Transmission Service)将自建Oracle迁移...

实时同步常见问题

平台检测到临时AK导致任务失败时会自动重启任务,如果任务配置了该类型的监控报警,您将会收到报警信息。实时同步至Oracle报错:logminer doesn't init,send HeartbeatRecord 实时同步至Oracle任务在初始化找合适的同步位点时,需要加载上...

数据集成概述

数据集成是稳定高效、弹性伸缩的数据同步平台,致力于提供复杂网络环境下、丰富的异构数据源之间高速稳定的数据移动及同步能力。使用限制 数据同步:支持且仅支持结构化(例如RDS、DRDS等)、半结构化、无结构化(OSS、TXT等,要求具体同步...

一键实时同步至MaxCompute

数据集成使用MaxCompute引擎同步数据通道进行数据上传和下载(同步数据通道SLA详情请参见 数据传输服务(上传)场景与工具),请根据MaxCompute引擎同步数据通道SLA评估数据同步业务技术选型。一键实时同步至MaxCompute,按实例模式同步时...

一键实时同步至MaxCompute

数据集成使用MaxCompute引擎同步数据通道进行数据上传和下载(同步数据通道SLA详情请参见 数据传输服务(上传)场景与工具),请根据MaxCompute引擎同步数据通道SLA评估数据同步业务技术选型。一键实时同步至MaxCompute,按实例模式同步时...

Check节点

策略二:检查目标分区在指定时长是否有更新 若Check节点检查到MaxCompute分区表的目标分区在指定时长内未更新,则表示该分区的数据已产出完成,平台即认为MaxCompute分区表数据已可用。FTP文件或OSS文件 若Check节点检查到目标FTP文件或OSS...

DataWorks数据服务对接DataV最佳实践

现在通过DataWorks为您提供的 数据集成>数据开发>数据服务 的全链路数据研发平台,结合MaxCompute即可快速搭建企业数仓。DataWorks数据服务提供了快速将数据表生成API的功能,通过可视化的向导模式操作,无需代码便可快速生成API,然后通过...

离线同步任务运维

DataWorks平台将会根据数据质量规则强弱和数据质量规则校验结果决定任务是否由于质量规则校验失败退出,并阻塞下游节点执行,防止脏数据影响范围进一步扩大。数据集成目标端数据源是否支持数据质量监控,及数据质量监控的使用详情请参见 ...

配置并管理实时同步任务

数据集成使用MaxCompute引擎同步数据通道进行数据上传和下载(同步数据通道SLA详情请参见 数据传输服务(上传)场景与工具),请根据MaxCompute引擎同步数据通道SLA评估数据同步业务技术选型。创建实时同步任务 创建整库实时同步节点。配置...

自建MySQL迁移至RDS MySQL

说明 若源库是其他云平台上的MySQL数据库,您还需要确保该数据库已开通公网访问权限。若您的MySQL数据库部署在本地或他云上,您需要将DTS服务器的IP地址添加到该数据库远程连接的白名单中,以允许其访问您的数据库。更多信息,请参见 添加...

从自建MySQL迁移至RDS MySQL实例

说明 若源库是其他云平台上的MySQL数据库,您还需要确保该数据库已开通公网访问权限。若您的MySQL数据库部署在本地或他云上,您需要将DTS服务器的IP地址添加到该数据库远程连接的白名单中,以允许其访问您的数据库。更多信息,请参见 迁移...

自建MySQL迁移至PolarDB MySQL版

说明 若源库是其他云平台上的MySQL数据库,您还需要确保该数据库已开通公网访问权限。若您的MySQL数据库部署在本地或他云上,您需要将DTS服务器的IP地址添加到该数据库远程连接的白名单中,以允许其访问您的数据库。更多信息,请参见 添加...

自建MySQL同步至RDS MySQL

说明 若您的MySQL数据库部署在其他云平台上,请使用相应的迁移方案上云。更多信息,请参见 自建MySQL迁移至RDS MySQL。若您的MySQL数据库部署在本地,您需要将DTS服务器的IP地址添加到该数据库远程连接的白名单中,以允许其访问您的数据库...

PolarDB-X 2.0数据

PolarDB-X 2.0数据源为您提供读取和写入PolarDB-X 2.0的双向通道,本文为您介绍DataWorks的PolarDB-X 2.0数据同步的能力支持情况。使用限制 PolarDB-X 2.0数据源仅支持使用 独享数据集成资源组。支持的版本 离线读写:支持PolarDB-X 2.0,...

OpenEvent概述

数据质量 数据质量校验结果反馈事件 描述:在数据治理模块中,启用了数据质量监控规则后,发送监控规则的校验结果。类型:属于 普通事件,您可以订阅此类事件消息,获知事件状态的实时变化情况。例如,在数据治理的数据质量模块,给某个表...

RDS MySQL迁移至MaxCompute

RDS MySQL实例 MySQL自建数据库:有公网IP的自建数据库 ECS上的自建数据库 通过数据库网关接入的自建数据库 通过云企业网CEN接入的自建数据库 通过专线、VPN网关或智能网关接入的自建数据库 说明 本文以RDS MySQL实例为源数据库介绍配置...

用户价值

数据资源平台为用户提供了一站式数据资产定义、生产、管理与服务平台,提供企业级数据资产构建能力和一致性使用体验,助力客户快速构建数据智能平台,实现数据资源统一管理,挖掘潜在规律,优化业务决策,让大数据真正的驱动客户业务。...

应用场景

建立数据平台 得益于其开放式架构设计,EMR Serverless Spark极地简化并提升了在数据湖环境中对结构化和非结构化数据进行高效分析处理的能力。EMR Serverless Spark不仅集成了任务调度系统,使得您能够便捷地构建与管理数据ETL流程,轻松...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 云数据库 RDS 云数据库 Redis 版 数据传输服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用