数据集成概述

说明 以业务数据数据同步到MaxCompute数据仓库为例,当大量的数据存储在数据库系统里,需要将数据库中的全量及增量数据同步到MaxCompute进行数仓分析时,数据集成传统方式是通过全量同步或者依赖数据库表中的 modify_time 等字段进行...

技术发展趋势

近些年来,数据在国民经济各个领域扮演着愈发重要的作用,其使用特点较之以往也发生了诸多变化,其趋势主要几个方面。规模爆炸性增长 随着8K、5G、IoT、大数据、AI等系列技术的发展,数据量迎来了爆发式增长。IDC在《Data Age 2025》的...

混合存储型(已停售)

场景分类 混合存储型实例 社区版实例 数据量与预算 数据降低成本需求。正在使用Pika、SSDB或者ARDB等。正在使用大容量的主备或者集群Redis。数据量小,或者预算充足且暂时无需降低存储成本。冷热数据分布 业务中冷热数据区分明显。...

应用场景

实时数据通道 1.1 接入多种异构数据并投递到下游多种大数据系统 通过数据总线,您可以实时接入APP、WEB、IoT和数据库等产生的异构数据,统一管理,并投递到下游的分析、归档等系统,构建清晰的数据流,让您更好的释放数据的价值。...

IoT数据自动化同步至云端解决方案

大数据分析是大数据完成数据价值化的重要手段之一,而进行大数据分析的第一步是让数据成功上云。解决方案 IoT数据自动化同步至云端解决方案主要包括存储原始数据和同步数据至分析系统两部分。IoT设备大量的数据通常以半结构化的形式存储。...

构建数据仓库

DataWorks具有通过可视化方式实现数据开发、治理全流程相关的核心能力,本文将为您介绍DataWorks在构建云上大数据仓库和构建智能实时数据仓库两个典型应用场景下的应用示例。构建云上大数据仓库 本场景推荐的架构如下。适用行业:全行业...

受众与核心能力

产品定位 DataWorks致力于为数据开发者、数据分析师、数据资产管理者,打造一个具备开放自主开发与全栈数据研发能力的一站式、标准化、可视化、透明化的智能大数据全生命周期云研发平台。DataWorks赋予用户仅通过单一平台,即可实现数据...

数据模型概述

DDM目前支持逻辑模型和物理模型建模,其中物理模型又分为关系型数据模型和非关系型数据模型,支持的大数据引擎为MaxCompute、Hive。说明 Hadoop的MR调优参数属于底层,DDM是数据建模工具,支持设置表、字段等物理属性。

典型场景

基于湖构建数据平台,支持BI、挖掘等业务 对象存储OSS可以作为湖存储,DLA基于OSS构建一站式的大数据平台。具体包括构建数据湖、数据ETL、交互式查询、机器学习等功能。构建数据湖 实时数据湖:支持DB的CDC与消息数据(如Kafka)入湖,构建...

应用场景

数据审计 智能解析数据库及大数据的通信流量,细粒度审计数据访问行为,通过对数据源全量行为的审计溯源、危险攻击的实时告警、风险语句的智能预警,为您最敏感的数据库资产做好最安全的监控保障。个人信息合规 可精准区分和保护个人数据,...

核心能力

数据资源平台提供了一站式数据资产定义、生产、管理与服务平台,提供企业级数据资产构建能力和一致性使用体验,助力客户快速构建数据智能平台,实现数据资源统一管理,挖掘潜在规律,优化业务决策,让大数据真正的驱动客户业务。...

应用场景

数据库MongoDB版支持单节点、副本集和分片集群三种部署架构,具备安全审计、时间点备份等多项企业能力。在互联网、物联网、游戏、金融等...大数据应用:使用云数据库MongoDB作为大数据的云存储系统,随时进行数据提取分析,掌握行业动态。

数据仓库研发规范概述

大数据时代,规范地进行数据资产管理已成为推动互联网、大数据、人工智能和实体经济深度融合的必要条件。贴近业务属性、兼顾研发各阶段要点的研发规范,可以切实提高研发效率,保障数据研发工作有条不紊地运作。而不完善的研发流程,会...

应用场景

大数据场景 云数据库HBase支持海量全量数据的低成本存储、快速批量导入和实时访问,具备高效的增量及全量数据通道,可轻松与Spark、MaxCompute等大数据平台集成,完成数据规模离线分析。优势如下:低成本:高压缩比,数据冷热分离,...

将云消息队列 Kafka 版的数据迁移至MaxCompute

本文介绍如何使用DataWorks数据同步功能,将 云消息队列 Kafka 版 集群上的数据迁移至阿里云大数据计算服务MaxCompute,方便您对离线数据进行分析加工。前提条件 在开始本教程前,确保您在同一地域中已完成以下操作:云消息队列 Kafka 版 ...

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大...

JindoFS实战演示

使用Checksum迁移HDFS数据到OSS 使用Checksum迁移HDFS数据到OSS 2021-05-11 通过Checksum算法,你可以在大数据迁移场景中校验数据的完整性、对比数据差异并实现增量迁移。本视频为您介绍如何使用Jindo Distcp迁移HDFS数据到OSS,以及在迁移...

ETL工作流快速体验

GitHub十大热门编程语言 DataWorks MaxCompute 函数计算 OSS 数据集成 数据开发 基于GitHub Archive公开数据集,通过DataWorks 数据集成 模块获取过去1小时GitHub中提交次数最多的代码语言数据,在DataStudio 数据开发 模块通过函数计算...

图层配置项说明

数据图元组件、栅格瓦片、地形瓦片、三维瓦片 和 其他:在这五个类型图层数据面板中,数据配置和普通图表组件一致,可配置静态数据源、API数据源和空间构建数据源内容,还可将图层数据接口作为区块数据接口,在可视化应用中配置更丰富的...

登录数据库

当您需要登录数据库或需要切换其他数据库账号时,可参考本文登录目标数据库。...导出数据库中已有的数据。具体操作,请参见 数据库导出。创建数据库。具体操作,请参见 数据库管理。登录数据库的相关问题,请参见 登录数据库。

数据保护伞入门

数据保护伞 是一款数据安全管理产品,提供数据发现、数据脱敏、数据水印、访问控制、风险识别、数据溯源等功能,帮助您快速梳理敏感数据并进行安全管控,保障数据安全。本文示例使用内置规则对 xc_dpe_e2_dev 项目的 phone 数据脱敏,并...

导入导出表数据

MaxCompute Studio可以将CSV、TSV等格式的本地数据文件导入至MaxCompute表中,也可将MaxCompute表中的数据导出到本地文件。MaxCompute Studio通过Tunnel导入导出数据。前提条件 导入导出数据使用MaxCompute Tunnel,因此要求MaxCompute ...

DataWorks On CDP/CDH使用说明

一、数据集成 DataWorks的数据集成模块为您提供读取和写入数据至CDP/CDH Hive、CDP/CDH HBase的能力,您需要将Hive或HBase组件创建为 DataWorks的 Hive或HBase数据源,实现将其他数据源的数据同步至Hive或HBase数据源,或将Hive或HBase数据...

配置跨库Spark SQL节点

任务编排中的跨库Spark SQL节点,主要针对各类跨库数据同步和数据加工场景,您可以通过编写Spark SQL,完成各种复杂的数据同步或数据加工的任务开发。前提条件 支持的数据库类型:MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、...

DataWorks On Hologres使用说明

数据地图概述 安全中心 数据保护伞 审批中心 安全中心是集数据资产分级分类、敏感数据识别、数据授权管理、敏感数据脱敏、敏感数据访问审计、风险识别与响应于一体的一站式数据安全治理界面,帮助用户落地数据安全治理事项。安全中心概述 ...

DescribeColumns-查询数据资产表中列的数据

调用DescribeColumns接口查询数据安全中心连接授权的MaxCompute、RDS等数据资产表中列的数据。接口说明 本接口一般用于敏感数据资产信息表中列数据的查看,便于用户准确的对敏感数据进行分析。注意事项 DescribeColumns 接口已修订为 ...

修改组件数据

在下方的数据配置区域内,按照您的需求修改模板已有的数据,或粘贴准备好的JSON格式的数据。说明 添加数据时的字段名要和系统设置保持一致。数据配置完成后,您可以在 设置数据源 页面单击 数据响应结果 的 图标刷新数据响应结果。数据响应...

划分数据

在划分数据域时,既能涵盖当前所有的业务需求,又能让新业务在进入时可以被包含进已有的数据域或扩展新的数据域。数据域的划分工作可以在业务调研之后进行,需要分析各个业务模块中有哪些业务活动。数据域可以按照用户企业的部门划分,也...

修改名单抽奖数据

在下方的数据配置区域内,按照您的需求自定义修改模板已有的数据,或直接粘贴准备好的JSON格式的数据。说明 添加数据时的字段名要和系统设置保持一致。数据配置完成后,您可以在 设置数据源 页面单击 数据响应结果 的 图标刷新数据响应结果...

修改名单抽奖数据

在下方的数据配置区域内,按照您的需求自定义修改模板已有的数据,或直接粘贴准备好的JSON格式的数据。说明 添加数据时的字段名要和系统设置保持一致。数据配置完成后,您可以在 设置数据源 页面单击 数据响应结果 的 图标刷新数据响应结果...

添加数据

DataV数据集支持多种数据源的接入,如数据库、excel表格文件等,通过对数据的结构化存储和元数据的汇集整理,提供高效实用的数据建模能力,可用的算子包括常见的数据聚合函数、按不同时间粒度划分、地理信息处理等。本文为您介绍如何在...

常见问题

数据同步过程中,可以修改源表中的字段类型,目前仅支持整型数据类型之间、浮点数据类型之间的列类型更改,并且只能将取值范围小的数据类型更改为取值范围数据类型,或者将单精度数据类型更改为双精度数据类型。整型数据类型:支持...

图层配置项说明

数据图元组件、栅格瓦片、地形瓦片、三维瓦片 和 其他:在这五个类型图层数据面板中,数据配置和普通图表组件一致,可配置静态数据源、API数据源和空间构建数据源内容,还可将图层数据接口作为区块数据接口,在可视化应用中配置更丰富的...

图层配置项说明

数据图元组件、栅格瓦片、地形瓦片、三维瓦片 和 其他:在这五个类型图层数据面板中,数据配置和普通图表组件一致,可配置静态数据源、API数据源和空间构建数据源内容,还可将图层数据接口作为区块数据接口,在可视化应用中配置更丰富的...

S3M BIM

在面板下方的 数据项目 下拉列表中,选择一个空间构建平台内已有的数据项目。选择完数据项目后,在 数据集 下拉列表中,选择一个匹配的数据。说明 如果 数据项目 和 数据集 配置项内没有任何可供配置数据类型的内容,请您单击面板内 前往...

S3M管网

在面板下方的 数据项目 下拉列表中,选择一个空间构建平台内已有的数据项目。选择完数据项目后,在 数据集 下拉列表中,选择一个匹配的数据。说明 如果 数据项目 和 数据集 配置项内没有任何可供配置数据类型的内容,请您单击面板内 前往...

ArcGIS栅格瓦片

在面板下方的 数据项目 下拉列表中,选择一个空间构建平台内已有的数据项目。选择完数据项目后,在 数据集 下拉列表中,选择一个匹配的数据。说明 如果 数据项目 和 数据集 配置项内没有任何可供配置数据类型的内容,请您单击面板内 前往...

路况层

在面板下方的 数据项目 下拉列表中,选择一个空间构建平台内已有的数据项目。选择完数据项目后,在 数据集 下拉列表中,选择一个匹配的数据。说明 如果 数据项目 和 数据集 配置项内没有任何可供配置数据类型的内容,请您单击面板内 前往...

超图REST栅格瓦片

在面板下方的 数据项目 下拉列表中,选择一个空间构建平台内已有的数据项目。选择完数据项目后,在 数据集 下拉列表中,选择一个匹配的数据。说明 如果 数据项目 和 数据集 配置项内没有任何可供配置数据类型的内容,请您单击面板内 前往...

路况层

在面板下方的 数据项目 下拉列表中,选择一个空间构建平台内已有的数据项目。选择完数据项目后,在 数据集 下拉列表中,选择一个匹配的数据。说明 如果 数据项目 和 数据集 配置项内没有任何可供配置数据类型的内容,请您单击面板内 前往...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 云数据库 RDS 数据库备份 DBS 云原生大数据计算服务 MaxCompute 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用