云原生数据湖分析(文档停止维护)

云原生数据湖分析(Data Lake Analytics,简称DLA)是无服务器(Serverless)化的数据湖分析服务,支持按需与保留资源使用,打造最具性价比的数据湖分析平台;提供一站式的数据湖分析与计算服务,支持 ETL、机器学习、流、交互式分析,可以...

概述

数据湖构建可以帮助用户快速构建云上数据湖,采用统一的管理视角治理数据湖。本产品目前处于公测阶段,您可以随时开通使用,目前数据湖构建所有功能均为免费使用阶段。用户使用流程 数据湖构建将帮助您快速简洁抽取源数据到统一数据湖的...

数据湖构建

阿里云数据湖构建(Data Lake Formation,简称 DLF)是一款全托管的快速帮助用户构建云上数据湖及Lakehouse的服务,为客户提供了统一的元数据管理、统一的权限与安全管理、便捷的数据入湖能力以及一键式数据探索能力。DLF可以帮助用户快速...

API概览

本产品(数据湖构建/2020-07-10)的OpenAPI采用 ROA 签名风格,签名细节参见 签名机制说明。我们已经为开发者封装了常见编程语言的SDK,开发者可通过 下载SDK 直接调用本产品OpenAPI而无需关心技术细节。如果现有SDK不能满足使用需求,可...

常见问题

本文为您介绍数据湖构建的常见问题。如何申请数据湖构建产品的公测资格?数据湖构建如何收费?数据湖构建与OSS有什么区别?什么情况下我需要使用数据湖构建?如何申请数据湖构建产品的公测资格?请使用阿里云 主账号 进行公测资格申请(请...

关系数据库全量入

本文为您介绍如何在数据湖构建(Data Lake Formation,简称DLF)中使用关系数据库全量入湖任务将RDS或PolarDB数据批量同步到数据湖中。重要 数据入湖功能已经停止更新,如果您有数据入湖需求请参考:数据入湖停止更新公告。前提条件 已开通...

基础操作

数据湖构建(Data Lake Formation,简称DLF)支持多种入湖任务类型用于快速构建数据湖,通过入湖任务,您可以定义数据入湖的方式和所消耗的资源。本文为您介绍入湖任务的基础操作。重要 数据入湖功能已经停止更新,如果您有数据入湖需求请...

使用流程

云原生数据湖分析DLA(Data Lake Analytics)是无服务器(Serverless)化的云上交互式查询分析服务,支持通过Presto和Spark引擎分析多种数据源中的数据。快速入门旨在介绍如何开通DLA、构建数据湖、调用Presto和Spark引擎进行数据分析与...

角色管理

本文档主要为您说明如何管理数据湖构建中的角色。说明 子账号需要具备admin(数据湖管理员)或 super_administrator(超级管理员)的权限,才可以进行角色相关操作。查看角色信息 1.打开 数据湖构建控制台,并打开数据权限管理-角色菜单。2...

【通知】停止售卖云原生数据湖分析DLA

阿里云计划停止售卖云原生数据湖分析DLA,其湖分析功能将并入云原生数据仓库AnalyticDB MySQL版。停售对象 云原生数据湖分析DLA 停售计划 2023年06月01日起,停止新购云原生数据湖分析DLA实例和开通服务。2023年12月01日起,停止升级云原生...

数据湖构建之MaxCompute湖仓一体最佳实践

MaxCompute+DLF湖仓一体方案打破数据湖与数据仓库割裂的体系,架构上将数据湖的灵活性、生态丰富与数据仓库的企业级能力进行融合,构建数据湖和数据仓库融合的数据管理平台。本文介绍湖仓一体的具体方案。背景信息 大数据计算服务...

快速入门

数据湖构建(Data Lake Formation,DLF)产品主要使用流程如下。前提条件 注册阿里云账号,并完成 实名认证。创建数据源 创建数据湖的入湖来源,当前支持阿里云RDS MySQL和PolarDB作为数据来源。您需要输入RDS MySQL连接的用户名和密码。...

常见术语

数据湖 数据湖是一个集中式存储库,允许您以任意规模存储所有结构化和非结构化数据,数据湖支持存储EB级别的数据,阿里云数据湖存储以OSS为代表!数据湖分析 数据湖分析就是针对数据湖数据分析的方案。云原生数据湖分析(简称DLA)是新一代...

基于Delta lake的一站式数据湖构建与分析实战

企业构建和应用数据湖一般需要经历数据入湖、数据湖存储与管理、数据湖探索与分析等几个过程。本文主要介绍基于阿里云数据湖构建(DLF)构建一站式的数据入湖与分析实战。背景信息 随着数据时代的不断发展,数据量爆发式增长,数据形式也变...

Flink VVP+DLF数据与分析实践

数据湖构建(DLF)可以结合阿里云实时计算Flink版(Flink VVP),以及Flink CDC相关技术,实现灵活定制化的数据入湖。并利用DLF统一元数据管理、权限管理等能力,实现数据湖多引擎分析、数据湖管理等功能。本文为您介绍Flink+DLF数据湖方案...

专家版

2,520元 折合计费单价:0.158元/1000前端数据上报次数 3,528元 折合计费单价:0.22元/1000前端数据上报次数 5,040元 折合计费单价:0.315元/1000前端数据上报次数 1年 有效期内12800万页面上报次数 15,120元 折合计费单价:0.118元/1000...

EMR+DLF数据湖解决方案

通过EMR+DLF数据湖方案,可以为企业提供数据湖内的统一的元数据管理,统一的权限管理,支持数据湖的多种管理如数据生命周期,湖格式自动优化,存储分析等。同时支持多源数据入湖以及一站式数据探索的能力。本文为您介绍EMR+DLF数据湖方案...

使用限制

您在使用数据湖构建(Data Lake Formation,简称DLF)控制台和接口时,产品做了如下限制,请在使用时注意不要超过相应的限制值,以免出现异常。数据湖元数据 限制项 用户配额 单表QPS 500 单表分区数量 100万 数据湖入湖预处理作业 限制项 ...

StarRocks快速使用数据湖分析版实例

StarRocks快速使用数据湖分析版,无数据迁移可实现快速数据湖分析 适用客户 全网用户 新增功能/规格 数据湖分析版实例适用于查询存储在Apache Hive、Apache Iceberg、Apache Hudi以及Apache Paimon等多种数据湖上的数据,并涵盖OSS、OSS-...

配置流入任务延迟监控

您可以通过云监控查看数据湖构建(DLF)流任务延迟状况,以及为每一个流任务设置报警规则,帮助您监控流任务运行状态。重要 数据入湖功能已经停止更新,如果您有数据入湖需求请参考:数据入湖停止更新公告。查看流任务监控数据 您可以在...

服务等级协议

自2021年1月起,数据湖构建(DLF)服务等级协议(SLA)生效。详细内容参考 数据湖构建服务等级协议。

功能特性

基于DLA+DTS同步RDS数据来构建实时数据湖 DLA Serverless Presto DLA Serverless Presto是云原生数据湖团队基于Presto打造的交互式分析引擎,Presto开发的初衷就是为了解决使用Hive来进行在线分析速度太慢的问题,因此它采用全内存流水线化...

产品简介

阿里云数据湖构建(Data Lake Formation,简称 DLF)是一款全托管的快速帮助用户构建云上数据湖及Lakehouse的服务,为客户提供了统一的元数据管理、统一的权限与安全管理、便捷的数据入湖能力以及一键式数据探索能力。DLF可以帮助用户快速...

用户管理

本文档主要为您说明如何管理数据湖构建中已添加的用户。查看用户列表 1.打开 数据湖构建控制台,并打开数据权限管理-用户菜单。2.打开用户列表信息页面。说明 此处管理的用户为添加到数据湖构建中的用户,目前仅支持添加RAM用户到数据湖...

Kafka实时入

本文为您介绍如何在数据湖构建(Data Lake Formation,简称DLF)中使用Kafka实时入湖任务将数据同步到数据湖中。重要 数据入湖功能已经停止更新,如果您有数据入湖需求请参考:数据入湖停止更新公告。前提条件 已开通数据湖构建服务,尚未...

什么是云原生数据湖分析

重要 云原生数据湖分析(DLA)产品已退市,云原生数据仓库 AnalyticDB MySQL 版 湖仓版支持DLA已有功能,并提供更多的功能和更好的性能。AnalyticDB for MySQL 相关使用文档,请参见 云原生数据仓库AnalyticDB MySQL版产品简介。云原生数据...

Location托管

Location托管可以将数据湖OSS中的存储数据托管到数据湖构建(DLF)中进行管理和分析,在托管Location后将可以为你提供 存储概览,生命周期管理介绍,数据表-数据概况(如数据访问频次,数据最后更新时间等),以及存储权限(规划中)等数据...

计费概述

本文介绍DLA的三种计费方式:按计算资源付费、按扫描量付费和数据湖存储服务付费。计费方式 计费类别 说明 适用场景 相关文档 按计算资源付费 数据湖分析CU版根据购买的CU规格进行计费,费用跟运行查询扫描的数据量没有关系。计费模式如下...

计费模式

本文介绍数据湖构建中各资源的计费规格,包括入湖作业资源用量、数据存储对象和元数据请求三部分。计量计费项 重要 DLF产品目前所有功能为 0折扣活动阶段,即使超过免费阶梯限定后,目前也均不会产生实际计费。元数据对象的存储量 元数据...

查询多个备份集

管理数据湖 若您在创建数据湖后仍想添加备份集,您可以通过 添加备份集 功能,按需往数据湖中添加备份集。由于每个备份计划仅支持同时创建一个数据湖,若您想创建新的数据湖,需要先关闭原有数据湖才可以重新建湖。登录 DBS控制台。单击...

MaxCompute仓一体概述

MaxCompute提供湖仓一体方案,该方案可以打破数据湖与数据仓库割裂的体系,并将数据湖的灵活性、生态丰富能力与数据仓库的企业级部署能力进行融合,助力构建数据湖和数据仓库相融合的数据管理平台。本文介绍如何通过MaxCompute和异构数据...

使用OpenAPI

本文为您介绍使用数据湖构建OpenAPI的基本信息及注意事项。说明 关于如何使用阿里云OpenAPI,请参见学习文档:使用OpenAPI。基本信息 版本说明 版本号 说明 2020-07-10 推荐 接入点说明 参见 服务接入点。用户身份 用户身份 支持情况 阿里...

格式管理

策略 所属类型 默认阈值 描述 AutoOptimizeByCommitVersion Optimize 17 每间隔固定的版本,触发Optimize任务 AutoVacuumByCommitVersion Clean 13 每间隔固定的版本,触发过期文件的Clean任务 说明 目前仅支持Delta Lake数据湖格式,更多...

DLF统一元数据

背景信息 阿里云数据湖构建是一款全托管的快速帮助用户构建云上数据湖的服务,产品为云原生数据湖提供了统一的元数据管理、统一的权限与安全管理、便捷的数据入湖能力以及一键式数据探索能力,详细信息请参见 数据湖构建产品简介。...

数据湖元数据管理

Databricks 数据洞察DBR 7.3,Spark 3.0.1,Scala 2.12及之后版本,在创建集群选择元数据类型时支持数据湖元数据作为Hive数据库。数据湖元数据是服务化高可用并且可扩展的元数据库,您无需额外购买独立的元数据库,就可以实现多个引擎计算,...

CatalogSettings

名称 类型 描述 示例值 object 数据湖相关配置 Config object 配置 string 数据湖权限配置,auth.permission.check.enable 表示是否开启元数据服务端鉴权,开启后通过 API 访问元数据将被鉴权,auth.super.principal 表示设置超级用户,超级...

实时数据湖概述

Apache Paimon是流批统一的湖存储格式,支持高吞吐的写入和低延迟的查询,促进数据在数据湖上真正实时的流动,并为用户提供基于湖存储的实时离线一体化的开发体验。详情请参见 Apache Paimon。Hologres从2.2版本开始,基于全新的外部表架构...

【通知】DBS备份数据查询功能下线

该功能允许用户通过选择目标备份集并创建数据湖,在离线数据湖中使用SQL语句查询不同备份集中的数据。但随着DLA服务的停止,数据库备份DBS 的备份数据查询功能也将于2024年05月起逐步下线。更多详情,请参见【通知】停止售卖云原生数据湖...

Delta Engine 概述

Delta Engine 是与 Apache Spark 兼容的高性能查询引擎,提供了一种高效的方式来处理数据湖中的数据,包括存储在开源 Delta Lake 中的数据。Delta Engine 优化可加快数据湖操作速度,并支持各种工作负载,从大规模 ETL 处理到临时交互式...

支持的数据

AnalyticDB for MySQL 支持导入RDS MySQL、MongoDB、OSS、MaxCompute、Kafka等多种数据源至数据仓库或数据湖中,各数据源支持的导入方案也不同,您可以参考本文档,选择合适的导入方案。数据入仓 类别 数据源 导入方式 产品系列 文档链接 ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
其他人还在搜
大数据湖 数据湖图 开源生态数据湖 数据湖算法 前端数据湖 开发数据湖
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 云数据库 RDS 云数据库 Redis 版 云原生数据湖分析 (文档停止维护) 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用