概述

业务挑战 部分阿里云用户会将阿里云关系型数据库RDS、PolarDB for MySQL、MongoDB或者云服务器ECS自建数据库作为业务系统数据库,随着业务数据的增长,业务数据库存储的数据也越来越多。但RDS、PolarDB for MySQL、MongoDB或者ECS自建...

数据仓库研发规范概述

数据仓库研发规范旨在为广大数据研发者、管理者提供规范化的研发流程指导方法,目的是简化、规范日常工作流程,提高工作效率,减少无效与冗余工作,赋能企业、政府更强大的数据掌控力应对海量增长的业务数据,从而释放更多人力与财力专注...

将云消息队列 Kafka 版的数据迁移至MaxCompute

本教程旨在帮助您使用DataWorks,将 云消息队列 Kafka 版 中的数据导入至MaxCompute,进一步探索数据的价值。步骤一:准备云消息队列 Kafka 版数据 向Topic testkafka中写入数据,以作为迁移至MaxCompute中的数据。由于 云消息队列 ...

应用场景

实时数据通道 1.1 接入多种异构数据并投递到下游多种数据系统 通过数据总线,您可以实时接入APP、WEB、IoT和数据库等产生的异构数据,统一管理,并投递到下游的分析、归档等系统,构建清晰的数据流,让您更好的释放数据的价值。...

构建数据仓库

DataWorks具有通过可视化方式实现数据开发、治理全流程相关的核心能力,本文将为您介绍DataWorks在构建云上大数据仓库和构建智能实时数据仓库两个典型应用场景下的应用示例。构建云上大数据仓库 本场景推荐的架构如下。适用行业:全行业...

数据集成概述

背景信息 面对各行各业对数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错,限速,并发)等。...

受众与核心能力

数据地图(公共云)/数据管理(专有云):提供强大的数据搜索、数据类目、数据血缘等能力。数据资产管理(仅专有云):统一管理整个平台的数据表、API等各类数据资产。数据安全:数据脱敏、权限控制等能力。应用开发(仅公共云):基于Web...

典型场景

构建数据湖 实时数据湖:支持DB的CDC与消息数据(如Kafka)入湖,构建规模的可以增删改查的数据集,延迟为T+10分钟。一键建仓:支持数据库一键入湖,T+1天。文件上传:数据上传后,DLA元数据发现功能可自动发现并构建好元数据体系。数据...

核心能力

遵循数据标准的数据建模,实现数据质量闭环控制 可视化、符合标准的数据建模 可视化ER模型、维度模型设计,自动生成物理表DDL。数据标准贯彻到模型、质量、保障及检查的全过程。自定义表属性、自定义数据元属性等元模型设计。全面、准确...

应用场景

数据审计 智能解析数据库及数据的通信流量,细粒度审计数据访问行为,通过对数据源全量行为的审计溯源、危险攻击的实时告警、风险语句的智能预警,为您最敏感的数据库资产做好最安全的监控保障。个人信息合规 可精准区分和保护个人数据,...

基于Delta lake的一站式数据湖构建与分析实战

这些数据湖格式有自己的数据meta管理能力,能够支持Update、Delete等操作,以批流一体的方式解决了数据场景下数据实时更新的问题。数据湖构建与管理 1.数据入湖 企业的原始数据存在于多种数据库或存储系统,如关系数据库MySQL、日志系统...

数据集成概述

背景信息 面对各行各业对数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错,限速,并发)等。...

创建Hudi数据

本文为您介绍如何创建Hudi数据源。背景信息 Hudi即Apache Hudi,Hudi是一个通用的数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并...同步到Hive的数据库名称:填写同步到Hive的数据库名称。单击 确定,完成Hudi数据源的创建。

创建Hudi数据

同步到Hive的数据库名称:填写同步到Hive的数据库名称。单击 确定,完成Hudi数据源的创建。重要 创建Hudi数据源时不支持测试数据源是否可以和Dataphin进行正常的连通,因此需要您确保连接信息的正确性。您可根据 网络连通解决方案 自行排查...

主备方案介绍

A:存储的是数据D1和数据D2中时间戳更大的数据,数据在LTS同步过程中不会改变数据原有的时间戳,一般情况下存储的是数据D2,但是由于主备实例不同可能存在时间戳毫秒级的时间差异造成数据D2的时间戳比数据D1的时间戳小,在这种情况下存储的...

限制说明

数据大小 云数据库 Memcache 版支持的单条缓存数据的 Key 最大不超过 1 KB,Value 最大不超过 1 MB,过大的数据不适合存储。事务支持 云数据库 Memcache 版不支持事务,有事务性要求的数据不适合写入,而应该直接写入数据库。使用场景 当...

创建Impala数据

使用限制 Dataphin的Impala数据源的数据集成使用JDBC的方式进行集成,因此性能相较于Hive较差,若您集成的表为非Kudu表,您可使用Hive数据源及输入输出组件集成。仅当连接E-MapReduce 5.x版本的Impala数据源时,才支持使用DLF获取元数据。...

创建Impala数据

使用限制 Dataphin的Impala数据源的数据集成使用JDBC的方式进行集成,因此性能相较于Hive较差,若您集成的表为非Kudu表,您可使用Hive数据源及输入输出组件集成。仅当连接E-MapReduce 5.x版本的Impala数据源时,才支持使用DLF获取元数据。...

ETL工作流快速体验

案例提供的数据仅用于阿里云数据开发治理平台DataWorks数据应用体验。仅 空间管理员 角色可导入ETL模板至目标工作空间。如需给账号授予空间管理员角色,请参见 空间级模块权限管控。导入ETL工作流模板 您可以将DataWorks ETL工作流模板...

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大...

创建HBase数据

如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema.table 的变量格式访问。更多信息,请参见 Dataphin数据源表开发方式。重要 目前仅支持 MySQL、Hologres、MaxCompute 数据源。数据源编码...

数据质量保障原则

一致性 一致性通常体现在跨度很大的数据仓库中。例如,某公司有很多业务数仓分支,对于同一份数据,在不同的数仓分支中必须保证一致性。例如,从在线业务库加工到数据仓库,再到各个数据应用节点,用户ID必须保持同一种类型,且长度也要...

Quick BI连接MaxCompute

背景信息 智能分析套件Quick BI是一个专为云上用户量身打造的易上手、性能强的大数据分析及可视化平台,可以让每个人都能成为数据分析师。Quick BI不仅是业务人员查看数据的工具,更是数据化运营的助推器。更多Quick BI信息,请参见 Quick ...

OSS数据安全防护最佳实践

将复杂的数据格式和内容汇总至统一的数据风险模型,并以标准化的方式呈现,实现企业关键数据资产的防御。云原生:充分利用云上服务优势,并支持云上多类型数据源。相较于传统软件化部署方式,服务架构更为健壮,可用性更高,成本也更低,...

配置跨库Spark SQL节点

任务编排中的跨库Spark SQL节点,主要针对各类跨库数据同步和数据加工场景,您可以通过编写Spark SQL,完成各种复杂的数据同步或数据加工的任务开发。前提条件 支持的数据库类型:MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、...

DataWorks On Hologres使用说明

将工作空间成员添加至Hologres引擎实例及DataWorks绑定的Hologres数据源中,并为生产环境执行账号授予较大的数据库权限。工作空间添加成员 为工作空间成员配置Hologres引擎权限 权限控制 DataWorks为您提供了产品级与模块级的权限控制,您...

使用MaxCompute控制台(离线)

同时您需拥有对应的数据权限,如:上传至已有表:需具备对应表的数据写入权限。上传至新增表:需具备对应项目的创建表权限。创建MaxCompute项目详情请参见 项目管理(新版),授权操作请参见 权限管理。基于阿里云对象存储OSS上传数据时,...

MapReduce

说明 您无法通过MapReduce读写 外部表 中的数据。应用场景 MapReduce支持下列场景:搜索:网页爬取、倒排索引、PageRank。Web访问日志分析:分析和挖掘用户在Web上的访问、购物行为特征,实现个性化推荐。分析用户访问行为。文本统计分析:...

DescribeColumns-查询数据资产表中列的数据

调用DescribeColumns接口查询数据安全中心连接授权的MaxCompute、RDS等数据资产表中列的数据。接口说明 本接口一般用于敏感数据资产信息表中列数据的查看,便于用户准确的对敏感数据进行分析。注意事项 DescribeColumns 接口已修订为 ...

常见问题

数据同步过程中,可以修改源表中的字段类型,目前仅支持整型数据类型之间、浮点数据类型之间的列类型更改,并且只能将取值范围小的数据类型更改为取值范围大的数据类型,或者将单精度数据类型更改为双精度数据类型。整型数据类型:支持...

使用DataWorks

MaxCompute支持通过DataWorks的数据集成功能将MaxCompute中的数据以离线方式导出至其他数据源。当您需要将MaxCompute中的数据导出至其他数据源执行后续数据处理操作时,您可以使用数据集成功能导出数据。本文为您介绍如何将MaxCompute...

文字标签

说明 还可将图层数据接口作为区块数据接口,在数据看板中配置更丰富的数据源类型或实现与普通图表组件的数据交互,详情请参见 一键生成区块接口。如果您在创建三维城市构建器项目时,使用了 空间数据项目 模式,并且项目内包含了数据图元...

文字标签

在场景编辑器内配置文字标签的数据面板时,您还可以使用 空间构建数据源 获取空间地图上文字标签数据,具体步骤如下:在图层配置面板中选择 数据 页签,单击面板下方 数据源类型 下拉框,选择 空间构建数据源。在面板下方 数据项目 ...

DataV

DataV数据可视化是使用可视化大屏的方式分析并展示庞杂数据的产品,您可以在DataV中新建 AnalyticDB MySQL 数据源,通过DataV对 AnalyticDB MySQL 数据进行可视化分析。在DataV中新建AnalyticDB MySQL数据源 登录 DataV控制台。选择 我...

数据格式

BaseFile:DeltaFile经过 COMPACTION 合并操作后生成的数据文件类型,会消除中间历史状态,PK值相同的记录只会保留一行,按照列式压缩存储,用来支撑高效的全量数据查询需求。进行数据查询时:每次快照查询会先找到最新生成的BaseFile,...

东软案例

在互联网服务场景下,运维监控数据量激增,采集监控的数据类型更加多样(时序指标、日志、代码链路等),现有运维系统采用的单模引擎(如RRD数据库、openTSDB时序数据库、ElasticSearch检索类数据库)应对这些实时、高并发采集,且价值密度...

简介

支持空间几何、时空轨迹的数据表达和建模。支持时空几何对象的创建、写入、索引、查询、删除等管理能力。支持与Spark的集成分析,提供兼容OGC标准的GeoSQL访问。支持基于SDK和RestAPI两种开发方式。支持HBase 1.x版本。2.5 版本 兼容2.0...

DataWorks模块使用说明

使用流程概览:参考文档:DataWorks数据建模 子模块:数据开发(DataStudio)功能说明:数据开发(DataStudio)是一站式数据开发平台,支持在线开发MaxCompute、EMR、Hologres、CDP、ADB等多种数据引擎的数据处理任务。它集成了强大的...

常见问题

StarRocks的数据模型主要有四种,分别为duplicate key、uniq key、agg模型和primary key模型,他们对于count的实现有比较大的区别。具体区别如下:duplicate key:该模型不需要做merge操作,所以count比较快。uniq key和agg模型:对count...

用户价值

数据开发更简单:平台提供的各种工具产品能够极大的简化数据开发过程,缩短数据治理周期,降低数据治理成本。通过标准化、精细化、规格化的智能数据生产流程,完成流水线式的数据生产作业,提升数据资源生产效率、消除数据供应品质差异。...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生大数据计算服务 MaxCompute 数据传输服务 云数据库 RDS 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用