[帮助文档] 通过HTTP协议下载文件并同步至目标数据源

DataWorks数据集成支持HttpFile数据源,可以通过HTTP协议下载文件并同步文件至目标数据源。

[帮助文档] LLM-文件后缀过滤组件说明

LLM-文件后缀过滤组件主要用于大语言模型(LLM)的文本数据预处理工作,根据文件名后缀对文本进行过滤,过滤掉指定后缀名的样本。

阿里云大数据工程师ACA认证(2023版)

21 课时 |
807 人已学 |
免费

基于MaxCompute的热门话题分析

8 课时 |
329 人已学 |
免费

独家揭秘当下大数据体系

4 课时 |
331 人已学 |
免费
开发者课程背景图

[帮助文档] 使用Check节点检查MaxCompute分区表、FTP文件或OSS文件是否可用

DataWorks的Check节点可用于检查目标对象(MaxCompute分区表、FTP文件或OSS文件)是否可用,当Check节点满足检查策略后会返回运行成功状态。如果某任务的运行依赖目标对象,您可使用Check节点检查目标对象,并设置该任务为Check节点的下游任务,当Check节点满足检查策略...

[帮助文档] 如何调用函数计算服务对oss中的PDF文件添加水印

本文为您介绍如何在DataWorks中通过函数计算节点调用函数计算服务,实现周期性对OSS中的增量PDF文件添加水印。

[帮助文档] 如何使用加密文件访问RDS

EMR Hive服务默认使用明文保存密码来访问本地MySQL或RDS MySQL,但也可以使用加密文件来访问这些数据库。本文为您介绍如何使用加密文件访问RDS MySQL。

MaxCompute的tunnel毕竟是下载的接口,直接读mc文件的api没打算对外开放吗?

MaxCompute的tunnel毕竟是下载的接口,不如holo直接读文件快,直接读mc文件的api没打算对外开放吗?

需要maxcompute对应的语法规则文件才能用antlr解析出来,可以申请开放下吗?

我们想对现有maxcompute里的的SQL批量分析下,我看日志好像odps使用的也是antlr 解析的,但是需要maxcompute对应的语法规则文件才能用antlr解析出来,可以申请开放下吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里巴巴大数据计算
阿里巴巴大数据计算
阿里大数据官方技术圈
347749+人已加入
加入
相关电子书
更多
Lindorm一站式车联网数据平台
Lindorm一站式AI数据平台实战
Lindorm:打造AI时代的 一体化数据平台
立即下载 立即下载 立即下载