创建DataHub项目

阿里云流数据处理平台DataHub是流式数据(Streaming Data)的处理平台,提供对流式数据的发布(Publish),订阅(Subscribe)和分发功能,让您可以轻松构建基于流式数据的分析和应用。前提条件 您已经完成了 创建RDS MySQL数据库表。操作...

CREATE STREAM

创建一张数据流表,表示一个无界的事件集合。数据流表仅支持新增数据,不支持更新数据和删除数据。数据流表中的最小单元为Record,Record有预定义的Schema。数据流表的物理数据存储在流存储的某个指定的Topic上,具体的存储格式可以在With...

函数概览

函数 说明 窗口函数 将数据流分割为指定大小的集合,并支持基于集合进行计算。聚合函数 返回一组数值的统计或计算结果。条件函数 返回指定条件下的数据处理、判断等结果。比较函数 比较两个或多个对象的值,并返回比较结果。算术函数 返回...

通过引擎实现地理围栏监控

写入数据,使用Kafka客户端写入数据到数据流表 input_stream,具体操作请参见 通过开源Kafka客户端写入Lindorm流引擎数据。完整的代码示例如下:import org.apache.kafka.clients.producer.KafkaProducer;import org.apache.kafka.clients....

典型使用场景

Kafka/Flink等消息中间件/流数据系统将数据实时Sink到 AnalyticDB PostgreSQL版。AnalyticDB PostgreSQL版 通过攒批覆盖写特性和近线性的水平扩展能力,集群整体实时写入性能可达百万级TPS。批量加载 批量加载的具体操作包括“copy from ...

功能简介

通过统一的数据资产目录,沉淀数据供给方生产的各类型数据,帮助数据使用者快速了解和获取业务需要的高质量数据资产,促进数据资产发挥更大的业务价值。同时,通过查看数据资产全局血缘,清晰的了解数据资产的上下游关联。概览 对数据资产...

功能简介

通过统一的数据资产目录,沉淀数据供给方生产的各类型数据,帮助数据使用者快速了解和获取业务需要的高质量数据资产,促进数据资产发挥更大的业务价值。同时,通过查看数据资产全局血缘,清晰的了解数据资产的上下游关联。概览 对数据资产...

将时空数据写入宽表引擎

写入数据,使用Kafka客户端写入数据到数据流表,具体操作请参见 通过开源Kafka客户端写入Lindorm流引擎数据。完整的代码示例如下:import org.apache.kafka.clients.producer.KafkaProducer;import org.apache.kafka.clients.producer....

离线集成概述

数据管理DMS离线集成是一种低代码的数据开发工具,您可以组合各类任务节点,形成数据流,通过周期调度运行达到数据加工、数据同步的目的。支持的数据库类型 MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、PolarDB分布式版、AnalyticDB...

集成与开发概览

离线集成是一种低代码的数据开发工具,您可以组合各类任务节点,形成数据流,通过周期调度运行达到数据加工、数据同步的目的,进而对在线数据库、数据仓库的数据进行加工处理并同步至目的端。流式ETL。更多信息,请参见 流式ETL。通过可视...

数据传输与迁移概述

流数据同步任务写入 DataHub数据同步MaxCompute。KafKa数据同步MaxCompute。自定义写入 SDK写入-流式数据通道(Streaming Tunnel)。离线数据批量数据写入(外表-湖仓一体)场景特征:主要用于数据联邦查询分析,偶尔需要对数据进行搬运。...

简介

当您需要将查询的数据、测试的数据、以及数据变化趋势等信息,以文档的形式进行交付,并在交付后,希望有可以替您解答数据的相关问题的工具时,您可以使用DMS的数据工作站功能。背景信息 Data Fabric是一种创新的数据管理方法,着重于迅速...

产品概述

产品描述 Dataphin是集产品、技术、方法论于一体的智能大数据平台建设引擎,为您提供数据引入、规范定义、建模研发、资产管理、数据服务等全链路智能数据建设及治理服务。功能 描述 Dataphin全托管 全托管又称公共云多租户模式,只需购买...

导出数据

数据水印:是指将标识信息通过一定方式嵌入到数据中,该水印信息数据使用者难以察觉。说明 建议导出的数据超过200条时使用数据水印嵌入。未开通敏感数据保护的数据库实例,不可使用数据水印。文件水印:是指将标识信息通过一定方式嵌入到...

发现

通过统一的数据资产目录,沉淀数据供给方生产的各类型数据,帮助资产运营管理者进行高价值、可共享的数据资源的注册、编目分类和公开运营,帮助数据使用者快速了解和获取业务需要的高质量数据资产,促进数据资产发挥更大的业务价值。...

离线同步数据质量排查

如果写出数据和目标存储已有数据发生数据约束(主键冲突、唯一键约束、外键约束等),数据库则使用来源数据update更新目标表已有数据行,在目标表存在多个数据约束的情况下,数据替换可能会失败并产生脏数据 如果写出数据和目标存储已有...

区域统计

如何连接,请参见 使用流引擎。提交计算任务。计算任务构造了一个大小为10分钟的滚动窗口,并每10分钟统计一次窗口内的数据,具体步骤如下:加载 ganos 函数模块。在Flink Job中创建三张表:数据源表logCarWithTs、数据维表regions、数据...

资产安全概述

通过数据分类分级、敏感数据识别、敏感数据脱敏等措施,帮助客户建立完善的数据安全体系,确保数据使用的安全合规性。前提条件 已购买 资产安全 增值服务,详情请参见 开通Dataphin。应用场景 基于Dataphin实现数据安全保护的一些典型的...

资产安全概述

通过数据分类分级、敏感数据识别、敏感数据脱敏等措施,帮助客户建立完善的数据安全体系,确保数据使用的安全合规性。前提条件 已购买 资产安全 增值服务并且当前租户已开通 资产安全 模块。应用场景 基于Dataphin实现数据安全保护的一些...

功能特性

自建Oracle迁移至云原生数据仓库AnalyticDB PostgreSQL版 异构数据库间的数据类型映射关系 切 数据库上云割接 数据库割接用于帮助用户在完成数据库评估、应用评估改造后,将业务最终平滑地迁移到云上数据库。数据库割接 周期性任务 定时...

SQL Console初体验

当您成功在DMS上登录数据库后,可在SQL Console中进行创建数据库、创建表、查询表数据、变更表数据等操作。本文以在RDS MySQL数据库中进行操作举例。创建数据库 在RDS控制台创建数据库 访问 RDS实例列表,在上方选择地域,然后单击目标实例...

存储类型

存储类型说明 云原生多模数据库Lindorm支持的存储类型及其适用场景如下:存储类型 访问延迟 适用场景 支持的引擎类型 扩展能力 标准型云存储 3ms~5ms Feed流数据、聊天、实时报表、在线计算等实时访问数据。宽表引擎、时序引擎、搜索引擎、...

数仓分层

可以结合企业的数据使用特点,将明细事实表的某些重要属性字段做适当冗余,也即宽表化处理。在Dataphin中,明细数据层的表通常也被称为事实逻辑表。汇总数据层(DWS,Data Warehouse Summary):以分析的主题对象作为建模驱动,基于上层的...

常见问题

对比项 DAS企业版 V3 DAS企业版 V2 DAS企业版 V1 DAS企业版 V0 计费项 采用按量计费的模式,计费项为:数据引入 实时搜索分析 洞察分析 数据热存储 数据冷存储 数据查询 数据导出 企业版 V3在冷热存储混合的基础上,按使用的功能细分计费项...

DROP STREAM

删除数据流表。语法 DROP STREAM(IF EXISTS)table_name;参数 参数 是否必选 说明 table_name 是 数据流表的名称。示例 DROP STREAM users_original;

内置检测模型说明

异常终端下载敏感数据 来自异常终端的数据下载可能是由于账号访问权限被外部攻击者获取,或者员工使用非工作终端进行数据下载。异常时间下载敏感数据 来自异常时间的数据下载可能是由于账号访问权限被外部攻击者获取,或者员工在非正常工作...

概述

背景信息 Flink核心是一个流式的数据流执行引擎,其针对数据流的分布式计算提供了数据分布、数据通信以及容错机制等功能。基于流执行引擎,Flink提供了更高抽象层的API以便您编写分布式任务。Flink(VVR)完全兼容开源Flink,相关内容请...

OSS数据安全防护最佳实践

DSC 在您完成数据源识别授权后,从您存储在OSS的海量数据中快速发现和定位敏感数据,对敏感数据分类分级并统一展示,同时追踪敏感数据使用情况,并根据预先定义的安全策略,对数据进行保护和审计,以便您随时了解OSS数据资产的安全状态。...

需求分析

用户基本信息表:ods_user_info_d 网站访问日志原始数据表:ods_raw_log_d 网站访问日志明细表数:dwd_log_info_di 用户网站访问信息宽表:dws_user_info_all_di 用户画像数据:ads_user_info_1d 根据规范设计数据流:本实验使用数据集成离...

需求分析

用户基本信息表:ods_user_info_d 网站访问日志原始数据表:ods_raw_log_d 网站访问日志明细表:dwd_log_info_di 用户网站访问信息宽表:dws_user_info_all_di 用户画像数据:ads_user_info_1d 根据规范设计数据流:本实验使用数据集成离线...

Binlog日志服务

库级别 按照数据库的名字计算Hash值并进行分发,即对应同一个库的binlog数据,会始终按序路由给同一个binlog数据流,适用于单个 PolarDB-X 实例上数据库比较多的场景,如果事务不涉及跨库操作,该策略下不仅可以具备多流能力,还可以保证...

盲区会车

步骤二:接入流数据 本示例将通过开源Kafka脚本工具连接Lindorm流引擎。连接Lindorm流引擎,并创建名为 logVehicle 的Topic。详情请参见 通过开源Kafka脚本工具连接Lindorm流引擎。执行如下命令,将 示例数据 写入到已创建的Topic中。bin/...

什么是Dataphin

Dataphin是阿里巴巴集团OneData数据治理方法论内部实践的云化输出,一站式提供数据采、建、管、全生命周期的大数据能力,以助力企业显著提升数据治理水平,构建质量可靠、消费便捷、生产安全经济的企业级数据中台。Dataphin兼容多种计算...

EventBridge事件调度

DTS调度 数据传输服务 DTS(Data Transmission Service)作为事件源通过 事件总线 与 云工作 集成后,通过DTS调度能够触发关联工作的执行。本文介绍如何在控制台创建DTS调度。注意事项 作为触发源的DTS数据订阅任务必须...

功能特性

用户只需要通过简单的几步配置,然后在自己的应用逻辑里添 创建订阅 删除订阅 查看订阅 数据流消息管理 数据流消息管理 对Project、Topic、shard、group的管理与操作,包括建立、删除、使用。以便客户对流式数据的进行分发与消费 Project...

Delta Lake概述

Delta Lake以数据为中心,围绕数据流走向(数据从流入数据湖、数据组织管理和数据查询到流出数据湖)推出了一系列功能特性,协助您搭配第三方上下游工具,搭建快捷、易用和安全的数据湖。背景信息 通常的数据湖方案是选取大数据存储引擎...

基本概念

节点任务流程中所有计算节点的输入、输出数据都是具体的数据表、文件和数据流。开发场景与生产场景:每个工作区都有一个开发场景和一个生产场景,它们是两套独立的资源配置。数据开发工程师只能在开发环境中注册计算节点,配置节点任务流程...

数据归档概述

当线上数据库中的历史数据(访问率很低的数据)越来越多,占用的存储越来越大,以至于会影响数据库的查询性能与业务运转,此时您可以使用 数据管理DMS 的数据归档功能,周期性地将指定表的数据归档至其他数据库或存储服务中。同时,该功能...

概述

架构 Flume Agent是一个Flume的实例,本质是一个JVM进程,控制Event数据流从生产者传输到消费者。一个Flume Agent由Source、Channel、Sink组成。其中,Source和Channel可以是一对多的关系,Channel和Sink也可以是一对多的关系。基本概念 ...

DLF+EMR之统一权限最佳实践

本文结合具体业务场景,为您介绍如何使用DLF+EMR两个产品实现数据湖上统一权限的最佳实践。背景说明 元数据和数据权限是DLF产品提供的数据湖构建所需的基础能力,数据湖上引擎及产品。通过DLF提供的统一元数据视图访问湖上数据,解决湖上...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 数据库备份 DBS 云数据库 RDS 云数据库HBase版 数据管理 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用