常见术语

本文档主要介绍云原生数据湖分析(Data Lake Analytics,DLA)文档中涉及的基本概念。数据湖 数据湖是一个集中式存储库,允许您以任意规模存储所有结构化和非结构化数据,数据湖支持存储EB级别的数据,阿里云数据湖存储以OSS为代表!数据湖...

快速配置子账号权限

重要 云原生数据湖分析(DLA)产品已退市,云原生数据仓库 AnalyticDB MySQL 版 湖仓版支持DLA已有功能,并提供更多的功能和更好的性能。AnalyticDB for MySQL 相关使用文档,请参见 账号授权。前提条件 已创建RAM子账号。具体请参见 创建...

SDK安装与使用

使用SDK提交作业的代码如下所示:/*提交一个作业到数据湖分析Serverless Spark*@param regionId 使用的数据湖分析的REGION_ID*@param accessKeyId 用户AccessKeyId*@param accessKeySecret 用户AccessKeySecret*@param virtualClusterName ...

细粒度配置RAM子账号权限

权限策略的说明如下:权限策略名称 权限策略说明 AliyunDLAFullAccess 用于数据湖分析的管理员权限,拥有数据湖分析的所有权限,可以执行新建集群、删除集群、提交作业等操作,停止其它账号的作业等操作。拥有授权给DLA账户的角色的使用权...

版本发布记录

本文介绍云原生数据湖分析DLA的产品功能动态。2021年6月 类别 功能点 描述 相关文档 集群管理 监控报警 Spark集群支持监控报警。查看Spark监控 数据湖管理 从库读取 Lakehouse支持RDS、PolarDB MySQL从库读取。无 性能提升 Lakehouse支持DB...

Java SDK Demo

本文以一个完整的程序为例,提交一个计算π的作业到数据湖分析DLA,跟踪它的状态,查询历史上的运行结果。import com.aliyuncs.DefaultAcsClient;import com.aliyuncs.IAcsClient;import com.aliyuncs.exceptions.ClientException;import ...

产品优势

数据共享 Databricks数据洞察采用数据湖分析的架构设计,使用阿里云对象存储服务(OSS)为核心存储,直接读取分析OSS的数据,无需对数据做二次迁移,实现数据在多引擎之间的共享。icmsDocProps={'productMethod':'created','language':'zh-...

Paimon概述

您可以借助Apache Paimon快速地在HDFS或者云端OSS上构建自己的数据湖存储服务,并接入上述计算引擎实现数据湖的分析。目前Apache Paimon提供以下核心能力:基于HDFS或者对象存储构建低成本的轻量级数据湖存储服务。支持在流模式与批模式下...

友盟数据分析

您可以通过阿里云数据湖分析DLA的数据订阅功能对原始明细log数据进行查询和分析。开通友盟+DLA的组合方案 登录 友盟+数据银行控制台,在 未开通服务 页面的 Data Lake Analytics 区域,单击 立即开通。输入需要订阅数据的友盟账号和密码,...

请求结构

请求地址的构成 数据湖分析通过API操作Spark作业的请求结构如下所示:http://openanalytics.[region-id].aliyuncs.com/?Action=XXX &<公共请求参数>&<接口需求参数>所有接口支持GET方法来调用。调用地址需要填入RegionId 公共请求参数 是...

Serverless Spark概述

重要 云原生数据湖分析(DLA)产品已退市,云原生数据仓库 AnalyticDB MySQL 版 湖仓版支持DLA已有功能,并提供更多的功能和更好的性能。AnalyticDB for MySQL 相关使用文档,请参见 Spark应用开发。传统开源Spark集群版面临的挑战 Spark是...

应用场景

适用场景 OLAP多维分析 用户行为分析 用户画像、标签分析、圈人 高维业务指标报表 自助式报表平台 业务问题探查分析 跨主题业务分析 财务报表 系统监控分析 实时数仓 电商大促数据分析 教育行业的直播质量分析 物流行业的运单分析 金融行业...

什么是云原生数据湖分析

重要 云原生数据湖分析(DLA)产品已退市,云原生数据仓库 AnalyticDB MySQL 版 湖仓版支持DLA已有功能,并提供更多的功能和更好的性能。AnalyticDB for MySQL 相关使用文档,请参见 云原生数据仓库AnalyticDB MySQL版产品简介。云原生数据...

产品简介

DLA Ganos是基于云原生数据湖分析(Data Lake Analytics,DLA)系统设计开发的,面向时空大数据存储与计算的数据引擎产品。基于DLA无服务器化(Serverless)数据湖分析服务与内置的Spark计算引擎,DLA Ganos打通了阿里云各个存储系统,如...

功能特性

本文档主要介绍数据湖分析服务DLA包含的核心功能以及应用场景。数据湖分析服务DLA支持以下功能:功能名称 功能描述 参考文档 账号管理 账号分为DLA账号、RAM账号。您可以创建DLA子账号,并关联RAM子账号,关联后可以通过RAM子账号提交Spark...

API概览

ListUserRoles 获取单个User的数据湖角色列表 获取单个User的数据湖角色列表。ListPermissions 获取权限列表 获取权限列表。CheckPermissions 对User权限进行校验 对User权限进行校验。GetCatalogSettings 获取数据湖Catalog的配置 获取...

Flink VVP+DLF数据分析实践

Flink任务可以利用数据湖统一存储的优势,使用Hudi结果表或Iceberg结果表,将作业的结果输出到数据湖中,实现数据湖分析。在写入数据湖的过程中,Flink可以通过设置DLF Catalog,将表的元数据同步到数据湖构建(DLF)中。依托数据湖构建...

数据湖构建之MaxCompute湖仓一体最佳实践

MaxCompute+DLF湖仓一体方案打破数据湖与数据仓库割裂的体系,架构上将数据湖的灵活性、生态丰富与数据仓库的企业级能力进行融合,构建数据湖和数据仓库融合的数据管理平台。本文介绍湖仓一体的具体方案。背景信息 大数据计算服务...

2020年

提供电子表格(Web Excel)丰富、便捷的数据分析功能,其操作与Office Excel高度一致,用户可以快速上手实现线上数据查询、分析快捷操作。默认开放MaxCompute公开数据集,可直接基于公开数据集进行体验、测试。集成了MaxCompute项目创建...

快速入门

数据湖构建(Data Lake Formation,DLF)产品主要使用流程如下。前提条件 注册阿里云账号,并完成 实名认证。创建数据源 创建数据湖的入湖来源,当前支持阿里云RDS MySQL和PolarDB作为数据来源。您需要输入RDS MySQL连接的用户名和密码。...

管理RAM账号

云原生数据湖分析DLA使用的系统策略如下:AliyunDLAFullAccess:管理DLA的权限,包括对DLA中所有资源的所有操作权限。AliyunDLADeveloperAccess:开发者权限,与AliyunDLAFullAccess策略相比,不授予虚拟集群的创建、修改、释放等操作权限...

OSS访问日志分析

您可以通过日志服务SLS存储和分析OSS日志数据,也可以将OSS日志数据导出并存储到指定的OSS目录长期保存,然后通过数据湖分析服务对长期保存的OSS日志数据进行分析。通过数据湖分析服务(Data Lake Analytics,DLA)分析OSS日志数据前,您...

元数据抽取

元数据抽取可以分析数据湖中特定格式的数据,并自动生成元数据信息,通过周期性或手动执行,实现数据湖分析计算shema on read目标。使用限制 抽取的数据存储仅支持数据存储在阿里云OSS标准型中的数据。目前元数据发现仅支持json、csv、...

MaxCompute仓一体概述

MaxCompute提供湖仓一体方案,该方案可以打破数据湖与数据仓库割裂的体系,并将数据湖的灵活性、生态丰富能力与数据仓库的企业级部署能力进行融合,助力构建数据湖和数据仓库相融合的数据管理平台。本文介绍如何通过MaxCompute和异构数据...

应用场景

数据湖场景 DataLake集群类型提供了数据湖分析场景所需的服务和相关湖格式,包括Hadoop、OSS-HDFS、Hive、Spark、Presto等。通过选择OSS-HDFS,集群的YARN服务不再依赖集群本地的HDFS,也不需要使用Core节点组,从而提高了集群的弹性和灵活...

计费概述

计费方式 计费类别 说明 适用场景 相关文档 按计算资源付费 数据湖分析CU版根据购买的CU规格进行计费,费用跟运行查询扫描的数据量没有关系。计费模式如下。包年包月。按量付费。适用于查询频率高、查询数据量较大的场景,同时也能够给您...

使用流程

云原生数据湖分析DLA(Data Lake Analytics)是无服务器(Serverless)化的云上交互式查询分析服务,支持通过Presto和Spark引擎分析多种数据源中的数据。快速入门旨在介绍如何开通DLA、构建数据湖、调用Presto和Spark引擎进行数据分析与...

基于DLF数据的MaxCompute仓一体实践

步骤一:创建数据湖的元数据库 登录 数据湖管理控制台,在页面上方选择地域,在 元数据>元数据管理 页面创建元数据库。具体操作请参见 创建元数据库。步骤二:DataWorks数据集成导入数据至OSS 准备入湖数据。登录 RDS管理控制台,选择地域...

专家服务

如果您想对DLA Spark有进一步的了解,或者有任何疑问,除了官网文档外,您还可以通过以下途经:关注云原生数据湖的 开发者社区。加入我们的技术专家服务群(搜索钉钉群号『33444627』)。如果您在使用过程中遇到困难,请在群内提问。

Lindorm实时入建仓分析

前提条件 已在DLA中开通云原生数据湖分析服务。更多信息,请参见 开通云原生数据湖分析服务。已创建Spark引擎的虚拟集群。更多信息,请参见 创建虚拟集群。已创建Presto CU版虚拟集群。更多信息,请参见 DLA Presto CU版本快速入门。如果您...

MaxCompute仓一体

MaxCompute湖仓一体方案通过数据仓库MaxCompute和数据湖共同实现,将数据湖的灵活性、生态丰富能力与数据仓库的企业级部署能力进行融合,助力于构建数据湖和数据仓库相融合的数据管理平台。本文为您介绍如何通过Dataphin管理MaxCompute和...

MaxCompute仓一体

MaxCompute湖仓一体方案通过数据仓库MaxCompute和数据湖共同实现,将数据湖的灵活性、生态丰富能力与数据仓库的企业级部署能力进行融合,助力于构建数据湖和数据仓库相融合的数据管理平台。本文为您介绍如何通过Dataphin管理MaxCompute和...

什么是MaxCompute

湖仓一体 集成对数据湖(OSS或Hadoop HDFS)的访问分析,支持通过外部表映射、Spark直接访问方式开展数据湖分析。在一套数据仓库服务和用户接口下,实现数据湖与数据仓库的关联分析。详细信息,请参见 MaxCompute湖仓一体概述。离线实时...

查询Schema详情

您可以在Schema详情页面管理表,例如...单击左侧导航栏 数据湖管理>元数据管理。单击目标Schema单击右侧的 详细信息,您可以进行以下操作。返回:返回Schema列表。schema搜索:支持模糊搜索表名。查询:跳转至SQL执行页面。删除:删除表。

数据分析:即时快速分析

数据分析基于“人人都是数据分析师”的产品目标,旨在为更多非专业数据开发人员,如数据分析、产品、运营等工作人员提供更加简洁高效的取数、用数工具,提升大家日常取数分析效率。功能概述 数据分析支持基于个人视角的数据上传、公共数据...

数据分析概述

数据分析是数据辅助决策的最后一公里,是最终的数据可视化展示与探索分析的部分,选择使用适合的数据展示方式,可以帮助分析人员大大提升分析效率。仪表板:支持近40种数据图表,操作方便简单,如果您是专业版用户,还可以在群空间下配置...

【通知】停止售卖云原生数据湖分析DLA

阿里云计划停止售卖云原生数据湖分析DLA,其湖分析功能将并入云原生数据仓库AnalyticDB MySQL版。停售对象 云原生数据湖分析DLA 停售计划 2023年06月01日起,停止新购云原生数据湖分析DLA实例和开通服务。2023年12月01日起,停止升级云原生...

SDK安装与使用

获取开发用的SDK 可以在PIP的仓库中获取数据湖分析最新的开发SDK包,地址为 Python SDK官方地址。使用SDK提交Spark作业 获取用户的AccessKey,详情请参见 获取AccessKey。获取当前使用区的RegionId,阿里云各区的RegionId可以参见 地域和...

搭建与管理(基于DLF和OSS)

通过MaxCompute与DLF和OSS的组合,可以实现数据仓库和数据湖的一体化,提供更加灵活和高效的数据处理能力。本文为您介绍如何通过MaxCompute、DLF和OSS构建湖仓一体,以及湖仓一体项目的管理。前提条件 当您通过MaxCompute与DLF和OSS构建湖...

创建实例

数据湖分析版 兼容Trino(原名Presto),适用于数据湖或数据仓库查询分析的场景,例如已将数据存储在HDFS或对象存储服务(例如OSS)的场景。存算分离版(Beta)适用于对存储成本敏感,同时对查询效率要求略低的业务场景,例如OLAP多维分析...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 Redis 版 云原生数据湖分析 (文档停止维护) 云数据库 RDS 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用