查询资源标签

调用ListTagResources,查询一个或多个Databricks集群已绑定的标签列表,或者根据一组标签查询被改组标签绑定的资源。调用该接口时注意以下信息:请求中至少指定一个参数:ResourceId.N、Tag.N(Tag.N.Key与Tag.N.Value),以确定查询对象...

管理项目告警

添加联系人 登录阿里云 Databricks 数据洞察控制台 在左侧导航栏单击 项目空间 单击 项目空间 中的 告警 在 联系人 区域,单击 添加;在 联系人 对话框中,输入 姓名、手机号码 和 Email 信息。分别单击 手机号码 和 Email 所在行的 获取...

通过HDP 2.6 Hadoop读取和写入OSS数据

client/hadoop-aliyun-2.7.3.2.6.1.0-129.jar hadoop/share/hadoop/tools/lib/sudo cp/usr/hdp/current/hadoop-client/lib/aliyun-*hadoop/share/hadoop/tools/lib/sudo cp/usr/hdp/current/hadoop-client/lib/jdom-1.1.jar hadoop/share/...

基于TPC-DS测试Databricks引擎性能

前提条件 通过主账号登录 阿里云 Databricks控制台,当前 TPC-DS 测试流程已在 Databricks Runtime 9.1 以上版本做验证,请选择DBR9及以上版本产品。为保证测试效果,推荐最小测试数据量应为1T,故需创建特定规模的集群,创建步骤请参见 ...

Databricks Delta Lake数据入湖最佳实践

本章架构图 步骤一:创建Kafka集群和Databricks 数据洞察集群 1.登录 阿里云E-MapReduce控制台。2.创建Kafka集群,详情参见 创建集群 3.登录 Databricks数据洞察控制台。4.创建集群,详情参见 创建集群。步骤二:Databricks 数据洞察集群...

续费流程

本文为您介绍如何手动和自动续费Databricks数据洞察(DDI)集群,以及取消自动续费。背景信息 只有包年包月集群才需要进行续费操作,按量集群是实时结算的。DDI续费方式包括手动续费和自动续费两种。前提条件 请确认包年包月集群还未到期。您...

集群扩容

Databricks 数据洞察集群计算资源或存储资源不足时,您可以对集群进行水平扩展。目前支持Worker 实例的扩容。扩容操作步骤 登录阿里云 Databricks 数据洞察控制台。在左侧导航栏的菜单下,单击 集群管理。选择想要扩容的集群,单击 集群...

包年包月

本文主要介绍Databricks数据洞察产品使用包年包月的付费方式时计算资源的费用参考(不包含块存储的价格)。说明 公测期间创建的按量付费集群,在公测结束后,将被释放。请您提前做好作业备份。使用对象存储OSS产生的费用需要另行计算,不...

产品性能

本文介绍Databricks数据洞察采用的企业版Spark引擎性能对比数据,Databricks Runtime(简写dbr)的性能及Delta Lake功能是本产品的核心优势。Databricks Runtime完全兼容开源版本Spark,并且相对开源Spark引擎TPC-DS平均性能有 3~5倍提升,...

Parquet(推荐)

例:读取在存储空间名称为databricks-demo-hangzhou文件路径为demo/The_Sorrows_of_Young_Werther.txt的文件/从oss地址读取文本文档 val dataRDD=sc.textFile("oss:/databricks-demo-hangzhou/demo/The_Sorrows_of_Young_Werther.txt...

ORC文件

ORC是为Hadoop作业而设计的自描述,类型感知的列存储文件格式。它针对大型流式数据读取进行了优化,但集成了对快速查询所需要行的相关支持。ORC和Parquet文件格式的区别:本质上Parquet针对Spark进行了优化,而ORC针对Hive进行的优化。前提...

创建集群

本节介绍如何使用Databricks数据洞察控制台创建集群。前提条件 已注册阿里云账号,并完成实名认证。详情请参见 阿里云账号注册流程。操作步骤 使用阿里云账号登录 Databricks数据洞察控制台。在Databricks数据洞察控制台页面,选择所在的...

通过文件管理优化性能

使用案例 测试数据生成:创建10,000个小文件,每个文件中包含10,000行连接数据:(src_ip,src_port,dst_ip,dst_port),基于这些文件创建外部表:conn_rand%spark import spark.implicits._import scala.util.Random val numRecords=100*...

管理Notebook

Databricks数据洞察控制台页面,选择所在的地域(Region)。创建的集群将会在对应的地域内,一旦创建后不能修改。在左侧导航栏中,单击 Notebook。在 Notebook 区域,选择待操作的集群。单击 Create new note。在 Create new note 对话框...

Delta Engine 概述

Delta Engine 是与 Apache Spark 兼容的...只需要通过将Databricks 用于数据湖即可获得这些 Delta Engine 功能的优势。通过文件管理优化性能 自动优化 通过缓存优化性能 动态文件修剪 隔离级别 Bloom 筛选器索引 优化联接性能 优化的数据转换

使用Spark Structured Streaming实时处理Kafka数据

本文介绍如何使用阿里云 Databricks 数据洞察创建的集群去访问外部数据源 E-MapReduce,并运行Spark Structured Streaming作业以消费Kafka数据。前提条件 已注册阿里云账号,详情请参见 阿里云账号注册流程。已开通 E-MapReduce服务。已...

Dataphin集成任务同步失败报错:"Operation category ...

问题描述 Dataphin集成任务运行失败...06],Description:[与HDFS建立连接时出现IO异常.].-org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException):Operation category READ is not supported in state standby.Visit ...

JindoFS

本文介绍如何使用Databricks 读写JindoFS数据源数据。前提条件 通过主账号登录 阿里云 Databricks控制台。已创建 EMR集群,具体参见 EMR集群创建 已创建DDI集群,具体请参见 DDI集群创建。创建集群并通过knox账号访问NoteBook。重要 版本...

CSV文件

例:读取在存储空间名称为databricks-demo-hangzhou文件路径为demo/The_Sorrows_of_Young_Werther.txt的文件/从oss地址读取文本文档 val dataRDD=sc.textFile("oss:/databricks-demo-hangzhou/demo/The_Sorrows_of_Young_Werther.txt"csv...

ElasticSearch

本文介绍如何使用Databricks数据洞察访问ElasticSearch数据源。前提条件 通过主账号登录 阿里云Databricks控制台。已创建 ElasticSearch实例,具体参见 创建阿里云Elasticsearch实例。已创建DDI集群,具体请参见 创建集群。创建集群并通过...

用户管理

本文介绍如何通过Databricks 数据洞察的用户管理功能,管理集群DDI用户。DDI用户信息存储在集群自带的OpenLDAP中,主要用于在DDI集群内的身份认证。DDI用户可以用于访问链接与端口,查看组件Web UI时的用户身份认证,也可以在开启组件LDAP...

隔离等级

Databricks上的Delta Lake支持两种隔离级别:Serializable和WriteSerializable。说明 详细内容可参考Databricks官网文章:隔离等级 Serializable:最强的隔离级别。它确保提交的写入操作和所有读取都是可序列化。只要有一个串行序列一次...

JSON文件

例:读取在存储空间名称为databricks-demo-hangzhou文件路径为demo/The_Sorrows_of_Young_Werther.txt的文件/从oss地址读取文本文档 val dataRDD=sc.textFile("oss:/databricks-demo-hangzhou/demo/The_Sorrows_of_Young_Werther.txt"JSON...

Notebook

Python package 需要通过Databricks数据洞察控制页面选择相应的python包。Q:如何配置Spark Application 资源 通过以下属性配置driver的资源:spark.driver.memory spark.driver.cores 通过以下属性配置executor的资源:spark.executor....

Notebook概述

相关操作 有关Notebook的更多操作,请参见:管理Notebook 使用Notebook 说明 每个Databricks数据洞察集群都会部署独立DataInsight Notebook服务。用户在使用Notebook时,需要先选择一个可用的集群。icmsDocProps={'productMethod':'created...

常见问题(FAQ)

说明 详情请参考Databricks官网文章:常见问题 什么是 Delta Lake?Delta Lake是一个开源存储层,可为数据湖带来可靠性。Delta Lake提供ACID事务,可伸缩的元数据处理,并统一流处理和批数据处理。Delta Lake在您现有的数据湖之上运行,并且...

Hive连接

使用Hive连接器可以查询和分析存储在Hive数据仓库中的数据。本文为您介绍Hive连接器相关的内容和操作。背景信息 Hive数仓系统由以下三部分内容组成:不同格式的数据文件,通常存储在Hadoop分布式文件系统(HDFS)或对象存储系统(例如,...

通过CDH5 Hadoop读取和写入OSS数据

CDH(Cloudera's Distribution,including Apache Hadoop)是众多Hadoop发行版本中的一种,最新版本CDH6.0.1中的Hadoop3.0.0版本已经支持OSS,但CDH5中的Hadoop2.6版本不支持OSS。本文介绍如何配置CDH5支持OSS读写。前提条件 拥有一个已搭建...

Delta Lake 快速开始一

例:读取在存储空间名称为databricks-demo-hangzhou文件路径为demo/The_Sorrows_of_Young_Werther.txt的文件/从oss地址读取文本文档 val text=sc.textFile("oss:/databricks-demo-hangzhou/demo/The_Sorrows_of_Young_Werther.txt")详情可...

PySpark及Python库使用

本文介绍如何使用阿里云 Databricks数据洞察 Notebook 进行 PySpark 开发。重要 若要使用其他数据源进行数据开发,需开通相应服务。本示例采用OSS数据源。步骤一:创建 Databricks数据洞察集群 登录 阿里云Databricks数据洞察控制台。创建...

Tablestore

本文介绍如何使用Databricks 读写Tablestore数据。前提条件 已创建 Tablestore实例 通过主账号登录 阿里云 Databricks控制台。已创建DDI集群,具体请参见 DDI集群创建。创建集群并通过knox账号访问NoteBook。使用Databricks 读写Tablestore...

Notebook-航空公司数据分析示例

例:读取在存储空间名称为databricks-demo-hangzhou文件路径为demo/The_Sorrows_of_Young_Werther.txt的文件/从oss地址读取文本文档 val text=sc.textFile("oss:/databricks-demo-hangzhou/demo/The_Sorrows_of_Young_Werther.txt")步骤一...

使用Notebook

Databricks数据洞察控制台页面,选择所在的地域(Region)。创建的集群将会在对应的地域内,一旦创建后不能修改。在左侧导航栏中,单击 Notebook。在 Notebook 区域,选择待操作的集群。在 DataInsight Notebook 页面,单击创建好的Note...

创建并绑定标签

调用TagResources接口,为指定的Databricks集群列表统一创建并绑定标签。调用该接口时,有如下使用限制:最多可以给集群绑定20个标签(包括集群已有标签)标签键和值均不能以“acs:”或者“aliyun”开头,且标签键和值均不能包含“http://...

MongoDB

本文介绍如何使用Databricks DDI访问MongoDB数据源数据。前提条件 通过主账号登录 阿里云 Databricks控制台。已创建MongoDB实例。已创建DDI集群,具体请参见 DDI集群创建。创建集群并通过knox账号访问NoteBook。使用Databricks 读写MongoDB...

关闭弹性伸缩

操作步骤 登录 阿里云Databricks控制台。在顶部菜单栏处,选择地域(Region)。单击左侧 集群 页签。在 集群管理 页面,单击相应集群所在行的 详情。在 详情 页面上部页签栏,单击 弹性伸缩。在 弹性伸缩 页面,单击 关闭弹性伸缩 划窗。在...

Hadoop Streaming

hadoop jar/usr/lib/hadoop-current/share/hadoop/tools/lib/hadoop-streaming-X.X.X.jar-file/home/hadoop/mapper.py-mapper mapper.py-file/home/hadoop/reducer.py-reducer reducer.py-input/tmp/hosts-output/tmp/output 参数 描述 ...

作业配置指南

参数名称 默认值 参数说明 spark.dla.connectors 无 启用DLA Spark内置的连接器,连接器名称以逗号隔开,目前可选的连接器有 oss、hbase1.x、tablestore。spark.hadoop.job.oss.fileoutputcommitter.enable false 开启parquet格式写入优化...

Spark On MaxCompute访问Phoenix数据

本文主要为您介绍使用Spark连接Phoenix,并将HBase中的数据写入到MaxCompute的实践方案。背景信息 Phoenix是HBase提供的SQL层,主要为了解决高并发、低延迟、简单查询等场景。为了满足用户在Spark On MaxCompute环境下访问Phoenix的数据...

管理作业

Databricks数据洞察控制台页面,选择所在的地域(Region)。创建的集群将会在对应的地域内,一旦创建后不能修改。在左侧导航栏,单击 项目空间。在 项目空间 页面,单击待操作项目所在行的 作业编辑。在 作业编辑 区域,在需要操作的文件...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
物联网无线连接服务 开源大数据平台 E-MapReduce 威胁情报服务 VPN网关 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用