Notebook-航空公司数据分析示例

读取OSS数据、打印schema,创建TempView Load OSS data%spark val sparkDF=spark.read.format("csv").option("header","true").option("inferSchema","true").load("oss:/databricks-demo-hangzhou/airline_statistic_usa.csv")Print ...

ORC文件

读取orc数据%spark val inputPath="oss:/databricks-data-source/datas/orc_data"val dataDF=spark.read.format("orc").option("header","true").option("inferSchema","true").option("mode","FAILFAST").load(inputPath)dataDF.show(3)...

JindoFS

本文介绍如何使用Databricks 读写JindoFS数据数据。前提条件 通过主账号登录 阿里云 Databricks控制台。已创建 EMR集群,具体参见 EMR集群创建 已创建DDI集群,具体请参见 DDI集群创建。创建集群并通过knox账号访问NoteBook。重要 版本...

Parquet(推荐)

读取Parquet数据%spark val inputPath="oss:/databricks-data-source/datas/parquet_data"val dtDF=spark.read.format("parquet").option("mode","FAILFAST").load(inputPath)dtDF.show(3)dtDF.printSchema()SQL 方式%sql CREATE TABLE ...

CSV文件

spark spark.read.format("csv")1.hearder 选项 默认header=false%spark val path="oss:/databricks-data-source/datas/input.csv"val dtDF=spark.read.format("csv").option("mode","FAILFAST").load(path)dtDF.show(5)数据展示 header=...

优化数据转换

Databricks使用嵌套类型优化高阶函数和 DataFrame 操作的...请参阅以下文章以了解如何开始使用这些优化的高阶函数和复杂数据类型:Higher-order functions Transform complex data types 说明 详细内容可参考Databricks官网文章:优化数据转换

自动优化

手动执行Optimize命令时默认合并的文件大小为1GB,而自动压缩默认产生的文件大小为128MB(最大),可以使用spark conf:spark.databricks.delta.autoCompact.maxFileSize 进行控制;自动压缩会使用贪心算法,选择收益最大的一些partition来...

表批读写

有关Delta Lake SQL命令的信息,请参见 Databricks Runtime 7.0及更高版本:Databricks Runtime 7.x SQL参考 Databricks Runtime 6.x及以下版本:Databricks Runtime 5.5 LTS和6.x SQL参考 建立表格 Delta Lake支持使用DataFrameWriter...

通过文件管理优化性能

可以通过将 Spark 会话配置 spark.databricks.delta.stalenessLimit 设置为时间字符串值(例如 1h、15m、1d 分别为 1 小时、15 分钟和 1 天)来配置表数据的过时程度。此配置是特定session,因此不会影响其他用户从其他笔记本、作业或BI...

JSON文件

{"key":"value3","extra_key":"extra_value3"}} 数据读取%spark val path="oss:/databricks-data-source/datas/example.json"val data_json=spark.read.format("json").load(path)data_json.show()data_json.printSchema()2.添加mode,...

迁移指南

说明 详情可参考Databricks官网文章:迁移指南 将工作负载迁移到Delta Lake 当您将工作负载迁移到Delta-Lake时,您应该注意到以下简化和与apachespark和apachehive提供的数据源相比的区别。Delta Lake自动处理以下操作,您永远不要手动执行...

表删除,更新和合并

要在使用updateAll和insertAll(至少其中一个)执行merge操作期间自动更新表架构,可以在运行merge操作之前设置Spark会话配置spark.databricks.delta.schema.autoMerge.enabled为true。说明 架构演变仅在同时存在一个updateAll或一个...

文本文件

1,a,10000,11-03-2019,pune 2,b,10020,14-03-2019,pune 3,a,34567,15-03-2019,pune tyui,a,fgh-03-2019,pune 4,b,10020,14-03-2019,pune%spark val path="oss:/databricks-data-source/datas/dataTest.csv"val dtDF=spark.read.textFile...

表流读写

说明 详细内容请参考Databricks官网文章:表流读写 有关演示这些功能的Databricks笔记本,请参阅 入门笔记本二。Delta Lake通过readStream和writeStream与Spark结构化流式处理深度集成。Delta Lake克服了许多流式处理系统和文件相关的常见...

重启集群

EB53C34F2E22"} 错误码 HttpCode 错误码 错误信息 描述 400 RAM.Permission.NotAllow You are not authorized to perform the operation.没有权限执行此操作,请联系主账号授权 400 DB.Fail A database access error occurred.数据库访问...

表实用程序命令

如果您确定在此表上执行的操作没有超过计划指定的保留时间间隔,你可以通过设置ApacheSpark属性spark.databricks.delta.retentionDurationCheck.enabled设置为false来关闭此安全检查。选择的时间间隔,必须比最长的并发事务长,也必须比...

Delta Lake 快速入门

读一个表 在这个部分:显示表格历史记录 查询表的早期版本(时间行程)您可以通过在DBFS("/mnt/delta/events")或表名("event")上指定路径来访问Delta表中的数据:Scala%spark SELECT*FROM delta.`/mnt/delta/events` 或%spark val ...

通过JDBC连接Spark Thrift Server提交Spark作业

确保您已安装Java环境和Java编程工具,并且已配置环境变量 Java代码连接Spark Thrift Server需要下载Databricks提供的依赖包,下载路径:Databricks JDBC Driver 将项目依赖SparkJDBC42.jar添加到编程工具的Lib下,如图:编写代码,连接...

创建数据开发作业

Type String 是 SPARK 作业类型,取值如下:SPARKspark作业,使用spark-submit提交 ZEPPELIN:提交zeppelin notebook,使用该作业类型,作业的params参数为notebook id SPARK_STREAMING:提交spark流处理作业 FailAct String 否 STOP ...

最佳实践

说明 详情请参考Databricks官网文章:最佳实践 本文介绍了使用Delta Lake时的最佳做法。提供数据位置提示 如果您通常希望在查询谓词中使用一个列,并且该列具有较高的基数(即,大量不同的值),则使用Z-ORDER-BY。Delta-Lake根据列值自动...

入门笔记本

这些笔记本显示了如何将JSON数据转换为Delta Lake格式,创建Delta表,追加到表,优化结果表,最后使用Delta Lake元数据命令显示表的历史记录,格式和详细信息。Delta Lake Quickstart Python笔记本 Note 链接地址:Databricks Delta ...

克隆工作流

返回数据 名称 类型 示例值 描述 Id String FJ-3FC8XXXXXDXX00C0 clone得到的新的作业ID RequestId String 0b16392216407604990527735e8d05 请求ID。示例 请求示例 http(s):/[Endpoint]/?Action=CloneFlow&ProjectId=FP-A1BE52DDXXXXX3&Id=...

解绑标签

调用UntagResources接口可以为指定的Databricks集群解绑标签。解绑后,如果该标签没有绑定其他任何资源,会被自动删除。请求参数 名称 类型 是否必选 示例值 描述 Action String 否 TagResource 系统规定参数。对于您自行拼凑HTTP或...

删除数据开发项目

调用 DeleteFlowProject 接口删除数据开发项目。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action String ...

返回结果

成功结果 JSON示例:{"Data":"true","RequestId":"2670BCFB-925D-4C3E-9994-8D12F7A9F538"} 错误结果 调用接口出错后,将不会返回结果数据。调用方可根据每个接口对应的错误码以及下述公共错误码来定位错误原因。当调用出错时,HTTP 请求...

公共参数

公共请求参数是指每个接口都需要使用到的请求参数。...返回结果数据->接口名称+Response>JSON示例:{"RequestId":"4C467B38-3910-447D-87BC-AC049166F216",/*返回结果数据*/}$icmsDocProps={'productMethod':'created','language':'zh-CN',};

创建并绑定标签

调用TagResources接口,为指定的Databricks集群列表统一创建并绑定标签。调用该接口时,有如下使用限制:最多可以给集群绑定20个标签(包括集群已有标签)标签键和值均不能以“acs:”或者“aliyun”开头,且标签键和值均不能包含“http://...

约束条件

说明 详细内容请参考Databricks官网文章:约束条件 注意 在Databricks Runtime 7.4及更高版本中可用。Delta表支持标准的SQL约束管理子句,以确保自动验证添加到表中的数据的质量和完整性。当违反约束时,Delta Lake会抛出一个...

Bloom过滤器索引

布隆过滤器是一项非常有用的Data-skipping技术。...禁用布隆过滤器索引 Databricks默认启用布隆过滤器索引,如果需要禁用布隆过滤器索引,可以通过设置配置项spark.databricks.io.skipping.bloomFilter.enabled 为false实现。

暂停工作流

返回数据 名称 类型 示例值 描述 Data Boolean true 返回执行结果。RequestId String B46F8A2A-B46B-415C-8A9C-B01B99B775A2 请求ID。示例 请求示例 http(s):/[Endpoint]/?Action=SuspendFlow&RegionId=...

恢复工作流

返回数据 名称 类型 示例值 描述 Data Boolean true 返回执行结果。RequestId String B46F8A2A-B46B-415C-8A9C-B01B99B775A2 请求ID。示例 请求示例 http(s):/[Endpoint]/?Action=ResumeFlow&RegionId=...

查询作业列表

ExactName String 否 my_job_name 精确匹配 job name 返回数据 名称 类型 示例值 描述 PageNumber Integer 1 当前页数。PageSize Integer 20 每页的作业数量。RequestId String 1549175a-6d14-4c8a-89f9-5e28300f6d7e 请求ID。Total ...

删除项目用户

返回数据 名称 类型 示例值 描述 Data Boolean true 返回执行结果,包含如下:true:删除成功。false:删除失败。RequestId String 243D5A48-96A5-4C0C-8966-93CBF65635ED 请求ID。示例 请求示例 http(s):/[Endpoint]/?Action=...

修改数据开发作业

调用ModifyFlowJob接口,修改数据开发作业。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action String 是 ...

克隆作业

返回数据 名称 类型 示例值 描述 Id String FJ-06D12BA16419*新产生的作业ID。RequestId String BCE475E4-129D-43D2-8595-C80B80CBC114 请求ID。示例 请求示例 http(s):/[Endpoint]/?Action=CloneFlowJob&ProjectId=FP-C62EEC30F773*&Id=FJ...

关闭弹性伸缩

背景信息 关闭弹性伸缩后,当前已经通过弹性伸缩功能扩充的Task节点将会全部释放,但HDFS存储的位于Core节点的数据不会受影响。如果关闭弹性伸缩后,集群计算资源不足,则建议您通过扩容来增加集群计算资源,详情请参见 集群扩容。操作步骤...

并发控制

说明 详情请参考Databricks官网文章:并发控制。Delta Lake在读取和写入之间提供ACID事务保证。这意味着:跨多个集群的多个编写器可以同时修改表分区,并查看表的一致性快照视图,并且这些写入操作将具有序列顺序。即使在作业过程中修改了...

隔离等级

WriteSerializable是默认的隔离级别,因为对大多数常见操作而言,它使数据一致性和可用性之间达到良好的平衡。在此模式下,Delta 表的内容可能与表历史记录中所示的操作序列不同。这是因为此模式允许某些并发写入对继续进行(例如,操作X和...

结束工作流

返回数据 名称 类型 示例值 描述 Data Boolean true 返回执行结果,包含如下:true:重试工作流成功。false:重试工作流失败。RequestId String B46F8A2A-B46B-415C-8A9C-B01B99B775A2 请求ID。示例 请求示例 http(s):/[Endpoint]/?Action=...

停止作业实例

返回数据 名称 类型 示例值 描述 Data Boolean true 返回执行结果,包含如下:true(执行成功),false(执行失败)RequestId String B46F8A2A-B46B-415C-8A9C-B01B99B775A2 请求ID。示例 请求示例 http(s):/[Endpoint]/?Action=...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 云数据库 Redis 版 云数据库 RDS 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用