产品更新动态

2023年4月 发布时间 2023-04-25 功能名称 功能描述 相关文档 支持数据更新——实现卡片内容的动态数据呈现 通过数据库连接方式的数据源,可以设置数据更新频率,手动/周期完成数据内容的更新,目前支持的可更新数据源是:MySQL、ADB MySQL...

账单数据订阅及查询分析

DataWorks及MaxCompute:DataWorks基于MaxCompute等大数据引擎,支持您在线进行SQL分析、业务洞察、编辑和分享数据,以及将查询结果保存为可视化图表卡片,快速搭建可视化数据报告。订阅账单数据后,用户中心会将相关账单数据同步至指定...

数据标准

数据是由特定的环境产生的,这些环境因素包括生产者、时间、系统等,从而造成了同一个语义的数据,有多种不同的定义方法,给后期进行数据汇集和整合带来障碍。因此,数据处理的前奏就是数据标准化,数据标准作为一个统一的数据共识,在标准...

东软案例

如下图所示,阿里Lindorm数据库在赋能政企数字运维团队更强大的运维大数据分析能力的同时,幅度提升了政府、企业数字系统性能和在线服务的客户数字体验,降低了低价值密度监控数据存储管理成本。图 1.阿里云Lindorm数据库驱动的IT运维...

云产品集成

您可以使用 DMS 录入云数据库 OceanBase 的数据,通过 DMS 的全域数据资产管理、数据治理、数据库设计开发、数据集成、数据开发和数据消费等功能,帮助企业高效、安全地挖掘数据价值,助力企业数字化转型。什么是数据管理DMS 支持的数据库...

配置自定义区域右下角组件数据

可视化应用创建完成后,您可以通过以下方式配置全国疫情分布可视化应用中右下角自定义区域内组件的数据。前提条件 已完成可视化应用的创建,详情请参见 创建可视化应用。参见 快速选中自定义区域面板内组件,选择自定义区域右下角面板内的...

配置自定义区域右下角组件数据

可视化应用创建完成后,您可以通过以下方式配置全国疫情分布可视化应用中右下角自定义区域内组件的数据。前提条件 已完成可视化应用的创建,详情请参见 创建可视化应用。参见 快速选中自定义区域面板内组件,选择自定义区域右下角面板内的...

迁移时源库为Oracle的注意事项及限制

如果迁移的源数据库类型为自建Oracle,您需要在配置具体的迁移任务前,参考本文的注意事项及限制,以保障数据迁移任务的正常运行。源库为Oracle的迁移方案概览 根据如下迁移方案,查看迁移任务的注意事项及限制:自建Oracle迁移至PolarDB ...

产品优势

相对于传统的数据同步工具,DTS的实时同步功能能够将并发粒度缩小到事务级别,能够并发同步同张表的更新数据,从而极地提升同步性能。高峰期时,数据同步性能可以达到30,000RPS。DTS链路支持多并发压缩传输,降低传输链路对带宽的占用。...

创建PolarDB MySQL版数据订阅通道

通过数据订阅功能,您可以实时订阅增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文介绍如何创建 PolarDB MySQL版 数据订阅通道。前提条件 PolarDB MySQL版 集群已开启Binlog功能,详情请...

使用数据镜像保护尚未写入完整的数据

数据库MongoDB提供数据镜像能力,您可以对副本集实例或分片集群实例创建一个只读数据镜像。其中副本集最高支持3TB数据,集群版本最高支持96TB数据。使用场景 创建数据镜像,可确保在数据大批量写入更新期间,所有读请求从数据镜像获取...

概述

解决方案 T+1全量同步一键建仓是指通过DLA控制台配置数据源(RDS、PolarDB for MySQL、MongoDB数据源、ECS自建数据数据)和目标OSS数据仓库,系统按照您设定的数据同步时间自动、无缝的帮您把数据源中的数据同步到目标数据仓库OSS中,...

DataWorks模块使用说明

使用流程概览:参考文档:数据集成概述 数据建模与开发 子模块:数据建模 功能说明:数据建模是全链路数据治理的第一步,沉淀阿里巴巴数据中台建模方法论,从数仓规划、数据标准、维度建模、数据指标四个方面,以业务视角对业务的数据进行...

受众与核心能力

产品定位 DataWorks致力于为数据开发者、数据分析师、数据资产管理者,打造一个具备开放自主开发与全栈数据研发能力的一站式、标准化、可视化、透明化的智能大数据全生命周期云研发平台。DataWorks赋予用户仅通过单一平台,即可实现数据...

典型场景

基于湖构建数据平台,支持BI、挖掘等业务 对象存储OSS可以作为湖存储,DLA基于OSS构建一站式的大数据平台。具体包括构建数据湖、数据ETL、交互式查询、机器学习等功能。构建数据湖 实时数据湖:支持DB的CDC与消息数据(如Kafka)入湖,构建...

数据方案概览

DMS的数据方案提供数据变更、数据导出、数据追踪、环境构建的功能,通过本文您可以了解数据方案的各项功能详情。一级功能 二级功能 功能描述 结构变更 结构设计 可以对目标库、表进行符合研发规范的表结构设计,保障多套环境(例如开发环境...

基于Delta lake的一站式数据湖构建与分析实战

数据湖作为一个集中化的数据存储仓库,支持的数据类型具有多样性,包括结构化、半结构化以及非结构化的数据数据来源上包含数据数据、binglog 增量数据、日志数据以及已有数仓上的存量数据等。数据湖能够将这些不同来源、不同格式的数据...

数据仓库研发规范概述

大数据时代,规范地进行数据资产管理已成为推动互联网、大数据、人工智能和实体经济深度融合的必要条件。贴近业务属性、兼顾研发各阶段要点的研发规范,可以切实提高研发效率,保障数据研发工作有条不紊地运作。而不完善的研发流程,会...

创建RDS MySQL数据订阅通道

通过数据订阅功能,您可以实时订阅源库的增量数据,轻松帮助业务实现轻量级缓存更新、业务异步解耦、含ETL逻辑的数据实时同步等场景。本文将介绍如何创建RDS MySQL数据订阅通道。注意事项 由于使用gh-ost或pt-online-schema-change等类似...

Oracle同步至Tablestore

本实践以Oracle作为来源数据源,以Tablestore作为去向数据源,因此您需要在DataWorks的工作空间的 数据源管理 页面新增Oracle数据源和Tablestore数据源,两个数据源支持的数据同步能力请参见 Oracle数据源、Tablestore数据源。已购买独享...

配置DTS数据迁移节点

DTS数据迁移节点可以实现跨库、全量、单表或整库的数据迁移,迁移的类型包括数据和结构。本文介绍配置DTS数据迁移节点的方法。背景信息 DTS数据迁移节点基于数据传输服务DTS,赋予任务流基于DTS进行数据传输的能力。更多信息,请参见 数据...

实验介绍

数据采集 数据加工 配置数据质量监控 数据可视化展现 目标人群 开发工程师、数据分析师、产品运营等存在数仓数据获取与数据分析洞察人员。涉及产品 本案例涉及以下产品:一站式大数据开发治理DataWorks 本案例通过DataWorks实现数据采集,...

数据集成支持的数据

离线集成支持的数据数据源 读取 写入 大数据存储型数据源 MaxCompute 支持 支持 Hive 支持 支持 Hologres 支持 支持 IMPALA 支持 支持 TDH Inceptor 支持 支持 Kudu 支持 支持 StarRocks 支持 支持 Hudi 支持 支持 Doris 支持 支持 ...

创建GreenPlum数据

通过创建GreenPlum数据源能够实现Dataphin读取GreenPlum的业务数据或向GreenPlum写入数据。本文为您介绍如何创建GreenPlum数据源。背景信息 Greenplum是一款大数据分析引擎,作用于分析、机器学习和AI等领域。其架构主要针对管理规模分析...

创建GreenPlum数据

通过创建GreenPlum数据源能够实现Dataphin读取GreenPlum的业务数据或向GreenPlum写入数据。本文为您介绍如何创建GreenPlum数据源。背景信息 Greenplum是一款大数据分析引擎,作用于分析、机器学习和AI等领域。其架构主要针对管理规模分析...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

快速体验

数据采集 数据加工 配置数据质量监控 数据可视化展现 目标人群 开发工程师、数据分析师、产品运营等存在数仓数据获取与数据分析洞察人员。涉及产品 本案例涉及以下产品:一站式大数据开发治理DataWorks 本案例通过DataWorks实现数据采集、...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...

开发前准备:绑定数据源或集群

若您要在DataWorks中进行数据建模、数据开发或使用运维中心周期性调度任务,需先将已创建的数据源或集群绑定至数据开发(DataStudio)模块。绑定后,才可读取数据源或集群中的数据,并进行相关开发操作。前提条件 您需根据后续要开发和调度...

功能简介

运营主要面向租户资产管理员,为用户提供数据资产编目、上线、下线等能力。运营获取资产元数据信息,同步到数据资产目录完成数据资产注册。数据资产管理涉及三种用户角色,包括资产使用方、租户资产管理员、工作组管理员。资产使用方:主要...

功能简介

运营主要面向租户资产管理员,为用户提供数据资产编目、上线、下线等能力。运营获取资产元数据信息,同步到数据资产目录完成数据资产注册。数据资产管理涉及三种用户角色,包括资产使用方、租户资产管理员、工作组管理员。资产使用方:主要...

通过数据订阅实现缓存更新策略

DTS(Data Transmission Service)的数据订阅功能结合MongoDB或Redis,可以实现高可靠、低延迟的缓存更新策略。本文以源为 RDS MySQL、目标为阿里云数据库Redis版为例,为您介绍缓存更新策略。前提条件 已完成数据订阅通道的配置并新增消费...

用户价值

数据资源平台为用户提供了一站式数据资产定义、生产、管理与服务平台,提供企业级数据资产构建能力和一致性使用体验,助力客户快速构建数据智能平台,实现数据资源统一管理,挖掘潜在规律,优化业务决策,让大数据真正的驱动客户业务。...

运营

运营主要面向租户资产管理员,为用户提供数据资产编目、数据资产上线、数据资产下线等能力。通过获取资产元数据信息,并同步到数据资产目录完成数据资产注册。数据资产管理涉及三种用户角色,包括资产使用方、租户资产管理员、工作组管理员...

数据导入方式介绍

为满足多样化的数据导入需求,云原生数据仓库AnalyticDB MySQL版 提供了多种数据导入方式,包括:通过外表导入数据、使用DataWorks导入数据和利用JDBC通过程序导入数据等。本文介绍各导入方式的特性及适用场景,帮助您选择正确的数据导入...

创建Impala数据

通过创建Impala数据源能够实现Dataphin读取Impala的业务数据或向Impala写入数据。本文为您介绍如何创建Impala数据源。背景信息 Impala是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至...

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大...

功能简介

数据中台建设过程中,搭建核心处理平台,并根据相关标准要求,将源数据或治理后的数据,按照“全面、高效、统筹”的共享原则,“低延时”、“精准化”地传递给用户,方便更多应用消费数据,实现数据价值。协同管控各种组织机构,为智慧化...

统一服务

数据中台建设过程中,搭建核心处理平台,并根据相关标准要求,将源数据或治理后的数据,按照“全面、高效、统筹”的共享原则,“低延时”、“精准化”的传递给用户,方便更多应用消费数据,实现数据价值。协同管控各种组织机构,为智慧化...

支持的数据库

数据同步 数据同步功能帮助您实现数据源之间的数据实时同步,适用于数据异地多活、数据异地灾备、本地数据灾备、跨境数据同步、查询与报表分流、云BI及实时数据仓库等多种业务场景。同步支持的数据库、版本和同步类型以及配置文档,请参见...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 DBS 云数据库 Redis 版 云数据库 RDS 数据传输服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用