大数据计算MaxCompute 写到外部表以后,odps里不会存数据对吧?

大数据计算MaxCompute 写到外部表以后,odps里不会存数据对吧?

如果用MaxCompute spark的话,还是得sdk或者jdbc读取odps的数据,能读取到吗?

如果用MaxCompute spark的话,还是得sdk或者jdbc读取odps的数据,这种能读取到吗?网络是通的不?还是得在odps执行的,就是udf不是有网络问题不行嘛,这个用spark会不会也存在网络问题这种情况,我看spark的连接好像是直接odps执行的,在idea本地开发的话怎么连接od...

阿里云大数据工程师ACA认证(2023版)

21 课时 |
807 人已学 |
免费

基于MaxCompute的热门话题分析

8 课时 |
329 人已学 |
免费

独家揭秘当下大数据体系

4 课时 |
331 人已学 |
免费
开发者课程背景图

通常的情况下,基于 MaxCompute 和阿里云大数据解决方案搭建的系统是怎样处理数据的?

通常的情况下,基于 MaxCompute 和阿里云大数据解决方案搭建的系统是怎样处理数据的?

MaxCompute作为大数据平台,接入整个业务体系数据有没有好的监控手段

如果把MaxCompute作为大数据平台,接入整个业务体系数据,有mysql,sqlserver等各种数据源。当源数据库的表,字段变更了,有没有好的监控手段。比如字段长度变长,表增加字段,等DDL操作。因为业务是变化的,这种如果监控不及时,整个调度流程是不是就会崩?

MaxCompute(ODPS)上处理非结构化数据的Best Practice

随着MaxCompute(ODPS)2.0的上线,新增的非结构化数据处理框架也推出一系列的介绍文章,包括 1、MaxCompute上如何访问OSS数据, 基本功能用法和整体介绍,侧重介绍读取OSS数据进行计算处理; 2、MaxCompute上处理非结构化数据的Best Practice。 基于非结构...

请问使用MaxCompute(原ODPS) python SDK的时候,如何获取表所有的数据,而不是前一万条? 还有bi报表抓取数据好像也是前10000条,导出也是这么多,怎么样能够导出所有数据呢?

请问使用MaxCompute(原ODPS) python SDK的时候,如何获取表所有的数据,而不是前一万条?还有bi报表抓取数据好像也是前10000条,导出也是这么多,怎么样能够导出所有数据呢?

PgSQL · 最佳实践 · 从 MaxCompute (ODPS) 迁移数据到 HybridDB

title: PgSQL · 最佳实践 · 从 ODPS 迁移数据到 HybridDB author: 曾文旌(义从) 背景 最近,不少用户在尝试使用 HybridDB 的过程中,询问我们如何把之前在 ODPS 中的数据迁移到 HybridDB。今天就跟大家介绍一种效率较高的方法。 一:原理 ODP...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里巴巴大数据计算
阿里巴巴大数据计算
阿里大数据官方技术圈
347750+人已加入
加入
相关电子书
更多
MaxCompute半结构化数据思考与创新
从数据治理看医疗大数据的发展
个人信息保护与大数据发展 — —探索数据治理的中国之道
立即下载 立即下载 立即下载

云原生大数据计算服务 MaxCompute数据相关内容

云原生大数据计算服务 MaxCompute更多数据相关