[帮助文档] 使用pyjindo访问阿里云OSS-HDFS

本文将以两种方式为您介绍如何在Python 3.6及更高版本中,利用Python的工具包pyjindo来操作OSS-HDFS。

[帮助文档] OSS数据导入MaxCompute表

OSS数据导入MaxCompute表组件主要用于将OSS中的数据导入MaxCompute表。输入为数据文件所在的OSS目录,默认会读取该目录下所有数据文件。OSS中的数据文件(JSONL格式,示例)需要符合:每一行是一个合法的JSON对象,文件由多行JSON对象组成,整个文件本身不是合法的JSON对...

阿里云大数据工程师ACA认证(2023版)

21 课时 |
807 人已学 |
免费

基于MaxCompute的热门话题分析

8 课时 |
329 人已学 |
免费

独家揭秘当下大数据体系

4 课时 |
331 人已学 |
免费
开发者课程背景图

[帮助文档] MaxCompute表数据导入OSS

MaxCompute表导入OSS组件主要用于将MaxCompute表导入OSS。表中的每一行数据导出为一个合法的JSON对象,导出文件(JSONL格式,示例)由多行JSON对象组成,整个文件本身不是合法的JSON对象。数据量大时可能会被切分为多个文件。

[帮助文档] 配置OSS/OSS-HDFS Credential Provider

本文为您介绍如何配置OSS/OSS-HDFS Credential Provider。

[帮助文档] 按Bucket配置OSS/OSS-HDFS Credential Provider

本文为您介绍如何按Bucket配置OSS/OSS-HDFS Credential Provider。

大数据计算MaxCompute中Spark跑oss数据,这几个有啥区别?

大数据计算MaxCompute中Spark跑oss数据,用MC 合适还是AnalysDB, 我看EMR,mc, ADB好几个产品都支持,不知道哪个合适,成本低点?请教下,这几个有啥区别?

大数据计算MaxCompute中dataworks创建oss外部表时,此时的分区是怎么设置的?

大数据计算MaxCompute中dataworks创建oss外部表时,文件格式是parquet,此时的分区是怎么设置的?文件名称有格式要求吗?

在大数据计算MaxCompute中,云下的spark程序如何才能访问oss外表数据呢?

在大数据计算MaxCompute中,客户在云下使用spark访问odps数据,当前如果odps中的表为oss外表(使用内网)运行报错。分析:在云下 ping不通 这个 internal 的地址,想修改为公网试试,如果不能通过公网访问,云下的spark程序如何才能访问oss外表数据呢?

大数据计算MaxCompute这个读取 oss 是因为是问题?

大数据计算MaxCompute这个读取 oss 是因为是问题?http://logview.odps.aliyun.com/logview/?h=http://service.cn.maxcompute.aliyun-inc.com/api&p=report_daily&i=2024...

大数据计算MaxCompute oss 读取 csv 数据重复还是存在?

大数据计算MaxCompute oss 读取 csv 数据重复还是存在?http://logview.odps.aliyun.com/logview/?h=http://service.cn.maxcompute.aliyun-inc.com/api&p=report_daily&i...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里巴巴大数据计算
阿里巴巴大数据计算
阿里大数据官方技术圈
347750+人已加入
加入
相关电子书
更多
Lindorm一站式车联网数据平台
Lindorm一站式AI数据平台实战
阿里云 JindoFS+OSS 数据上云实战
立即下载 立即下载 立即下载