SDK参考

20170525 下载Node.js SDK C++ cpp-dyplsapi-20170525 下载C++ SDK C#csharp-dyplsapi-20170525 下载C#SDK Swift swift-dyplsapi-20170525 下载Swift SDK 使用示例 该场景演示使用Python语言SDK,添加AXB号码的绑定关系,详情请参见 使用...

简介

本文档主要介绍系统运维管理Python SDK的安装和使用。请确保您已经开通了阿里云系统运维管理,并创建了AccessKeyId和AccessKeySecret。如果您还没有开通或者还不了解阿里云系统运维管理,请登录 系统运维管理 OOS(CloudOps Orchestration ...

使用Python依赖

您可以在Flink Python作业中使用自定义的Python虚拟环境、第三方Python包、JAR包和数据文件等,本文为您介绍如何在Python作业中使用这些依赖。背景信息 本文通过以下场景为您介绍如何使用Python依赖:使用自定义的Python虚拟环境 使用第三...

读写OSS数据

本文为您介绍如何使用OSS Python SDK及OSS Python API读写OSS数据。背景信息 对象存储OSS(Object Storage Service)是阿里云提供的海量、安全、低成本及高可靠性的云存储服务。DSW 不仅预置NAS文件系统,而且对接OSS存储。如果您需要频繁...

链路追踪

Python语言的代码,您可以通过OpenTelemetry SDK手动埋点将数据上报到链路追踪服务端。完整的示例代码,请参见 python-tracing-openTelemetry。示例代码解析如下。在工程目录配置依赖文件 requirements.txt。opentelemetry-api=1.12....

SDK参考

actiontrail-20200706 下载Node.js SDK C++ cpp-actiontrail-20200706 下载C++ SDK C#csharp-actiontrail-20200706 下载C#SDK Swift swift-actiontrail-20200706 下载Swift SDK 使用示例 使用 Python 语言 SDK 查询操作审计事件详情的示例...

安装SDK

阿里云百炼目前支持以下编程语言的SDK:Python Java Python 前提条件 已安装Python3.8及以上版本。请确保安装正确的Python版本,可能需要pip3 install dashscope!操作步骤 执行以下命令,通过pip安装SDK。pip install dashscope 如需更新...

有关Object命令

使用示范:python osscmd ls oss:/mybucket/folder1/folder2 python osscmd ls oss:/mybucket/folder1/folder2 marker1 python osscmd ls oss:/mybucket/folder1/folder2 marker1/python osscmd ls oss:/mybucket/python osscmd list oss:/...

Tunnel SDK示例(Python

Tunnel是MaxCompute的数据通道,您可以通过Tunnel向MaxCompute中上传或者下载数据,TunnelSDK是PyODPS的一部分,本文为您介绍使用Python版TunnelSDK上传下载数据的简单示例。注意事项 下文为您介绍简单的上传、下载数据的Python SDK示例,...

域名

network="ipv6"#代理请求 request.request_network="proxy"#内部请求 request.request_network="inner"#Ipv4/Ipv6 双协议栈 request.request_network="dualstack"#vpc 请求 request.request_network="vpc"根据 Python SDK Core 的 ...

SDK概述

Python3 Python3语言SDK Python SDK使用指南 Node.js Node.js语言SDK Nodejs SDK使用指南 CSharp Csharp语言SDK C#SDK使用指南 Go Go语言SDK GoLang SDK使用指南 PHP PHP语言SDK PHP SDK使用指南 下载解压后,可以通过README.md和README-...

前言

本文介绍对象存储OSS的Python SDK各种使用场景下的示例代码。源码地址 请访问 GitHub 获取源码。示例代码 OSS Python SDK提供丰富的示例代码,方便您参考或直接使用。示例包括以下内容:示例文件 示例内容 bucket.py 创建存储空间 列举存储...

PythonArtifact

名称 类型 描述 示例值 object 本数据结构代表 Python 类型作业必填的信息。pythonArtifactUri string Python 类型作业 URL 全路径。https://oss/bucket/test.py mainArgs string 启动参数。start from main entryModule string Python 的...

Dataphin如何在Shell脚本指定Python脚本的运行环境...

概述 本文为您介绍Dataphin如何在Shell脚本指定Python脚本的运行环境是Python3。详细信息 可以在运行Python脚本前加上这条语句来指定脚本的运行环境为Python3,也可以在下面这条命令后直接跟pip list、Python-V来查看当前环境装了哪些包...

安装

通过源码安装 从 GitHub 下载相应版本的SDK包,解压后进入目录,确认目录下有setup.py文件,然后执行命令如下:python setup.py install 验证 首先命令行输入python并回车,在Python环境下检查SDK的版本:>>>import aliyunsdkoos>>>...

支持语言

CADT API目前支持主流的 Python,Java,Golang和Swift编程语言,阿里云OpenAPI门户上有相应的SDK代码示例和DEMO代码。Python ...

PyODPS概述

PAI Notebooks:PAI的Python环境也可安装运行PyODPS,其中PAI的内置镜像均已安装好了PyODPS可直接使用,如PAI-Designer的自定义Python组件,在PAI Notebooks中使用PyODPS的方式与通用的使用方式基本一致,可参考 基本操作概述、DataFrame...

在DataWorks上运行PySpark作业的最佳实践

在创建的 EMR Spark 节点使用如下命令提交作业。说明 如果您选择上传Python代码至OSS,则需替换为实际使用的OSS路径。spark-submit-master yarn \-deploy-mode cluster \-conf spark.yarn.appMasterEnv.PYSPARK_PYTHON=./PYTHONENV/...

Dataphin中python脚本导入odps包后使用报错"name '...

问题描述 Dataphin的python脚本,导入odps包后,使用odps.execute_sql()时报错"name 'odps' is not defined。问题原因 用户使用的Dataphin是2.9.1版本,此版本使用odps包时需要先手工添加odps的AK信息去获取实例,不能直接使用。解决方案...

自定义标量函数(UDSF)

Flink全托管运行环境使用的是JDK 1.8,如果Python作业依赖第三方JAR包,请确保JAR包兼容JDK 1.8。仅支持开源Scala V2.11版本,如果Python作业依赖第三方JAR包,请确保使用Scala V2.11对应的JAR包依赖。UDSF开发 说明 Flink为您提供了...

PySpark开发示例

打包方式如下,请根据业务的复杂度进行选择:不打包直接采用公共资源 默认提供Python 2.7.13环境配置 spark.hadoop.odps.cupid.resources=public.python-2.7.13-ucs4.tar.gz spark.pyspark.python=./public.python-2.7.13-ucs4.tar.gz/...

配置Python开发环境

MaxCompute Studio支持您在IntelliJ IDEA完成Python开发,例如UDF和PyODPS脚本。本文为您介绍如何配置Python开发环境。安装PyODPS 您需要在本地安装PyODPS。PyODPS是MaxCompute的Python SDK,安装的操作详情请参见 安装PyODPS。运行...

ACM Python SDK

为方便 Python 程序使用 ACM 管理应用配置,ACM 提供了 Python SDK。ACM Python SDK 现已开源,使用方法请参考 Github。

赋值节点

仅标准版及以上版本的DataWorks,才可使用赋值节点,以及在上述节点中使用赋值参数功能。购买DataWorks,请参见 购买指引。赋值节点参数传递只支持传递给一层子节点,不支持跨节点传递。赋值节点只能将最后一条查询或输出结果通过自带输出...

提交训练作业

PAI Python SDK提供了更易用的API(即HighLevel API),支持您将训练作业提交到PAI,并使用云上资源运行训练作业。本文为您介绍如何准备训练作业脚本并使用SDK提交训练作业。计费说明 在提交训练作业时,会调用DLC计算资源执行任务,由此会...

自定义表值函数(UDTF)

Flink全托管运行环境使用的是JDK 1.8,如果Python作业依赖第三方JAR包,请确保JAR包兼容JDK 1.8。仅支持开源Scala V2.11版本,如果Python作业依赖第三方JAR包,请确保使用Scala V2.11对应的JAR包依赖。UDTF开发 说明 Flink为您提供了...

使用EAIS推理PyTorch模型(Python

运行环境 本教程重点介绍使用Python脚本推理PyTorch模型的过程,过程中使用EAIS为您提供的两种运行环境部署方式:使用EAIS提供的EAIS miniconda环境。说明 EAIS miniconda环境是阿里云基于miniconda开发的EAIS使用环境,该环境包含了推理...

自定义聚合函数(UDAF)

Flink全托管运行环境使用的是JDK 1.8,如果Python作业依赖第三方JAR包,请确保JAR包兼容JDK 1.8。仅支持开源Scala V2.11版本,如果Python作业依赖第三方JAR包,请确保使用Scala V2.11对应的JAR包依赖。UDAF开发 说明 Flink为您提供了...

Streaming Tunnel SDK示例(Python

Streaming Tunnel是MaxCompute的流式数据通道,您可以通过Streaming Tunnel向MaxCompute中上传数据,本文为您介绍使用Python版Streaming Tunnel SDK上传数据的简单示例。注意事项 Streaming Tunnel仅支持上传数据,下文为您介绍一个简单的...

创建并使用自定义函数

如果MaxCompute提供的内建函数无法支撑您的业务实现,您可以通过编写代码逻辑创建自定义函数,满足您的业务需求。...在使用Python编写MaxCompute UDF过程如遇到问题,详情请参见 Python语言编写MaxCompute UDF的常见问题。

SDK概述

SDK语言 SDK入门 SDK使用调试指南 Java Java语言SDK Java SDK使用指南 Node.js Node.js语言SDK Node.js SDK使用指南 Python Python语言SDK Python SDK使用指南 C#C#语言SDK C#SDK使用指南 C++ C++语言SDK C++SDK使用指南 Go Go语言SDK ...

安装宽表SQL Driver

Python Lindorm面向Python语言应用开发提供了遵循Python语言 DB-API 接口规范的Driver。关于该Driver的安装和使用,请参见 使用Python DB-API的应用开发。SQL的开发与测试 需要编写在应用逻辑的SQL语句建议在开发阶段先进行充分验证后再...

Python SDK接入指南

root#pip install-U aliyun-python-sdk-core root#pip install-U aliyun-python-sdk-edas root#pip list 2>/dev/null|grep-E"aliyun-python-sdk-core|aliyun-python-sdk-edas"aliyun-python-sdk-core 2.13.9 aliyun-python-sdk-edas 2.52.1...

如何在Custom Runtime引用层的依赖

在Custom Runtime-Python语言中引用层的依赖 方式一:在函数配置设置 PYTHONPATH 环境变量,添加层所在的目录。示例如下。PYTHONPATH=opt/python 方式二:在您项目的入口文件里添加以下语句,需要在导入层的依赖库前执行。import sys ...

如何在Custom Runtime引用层的依赖

在Custom Runtime-Python语言中引用层的依赖 方式一:在函数配置设置 PYTHONPATH 环境变量,添加层所在的目录。示例如下。PYTHONPATH=opt/python 方式二:在您项目的入口文件里添加以下语句,需要在导入层的依赖库前执行。import sys ...

函数概述

数据服务支持您编写函数,并将函数关联至API,使得函数可以作为API的过滤器使用,对API的请求参数或返回结果进行加工处理。本文为您介绍函数功能。使用限制 您需要购买DataWorks基础版及以上版本,才可以使用过滤器功能。Python函数正在...

ADD PY

添加Python类型的资源至MaxCompute项目使用限制 MaxCompute不支持添加外部表为资源。每个资源文件的大小不能超过2048 MB。单个SQL、MapReduce作业所引用的资源总大小不能超过2048 MB。本命令为CMD命令,仅支持在客户端(odpscmd)工具...

在PyODPS节点调用第三方包

PyODPS 2底层Python语言版本为Python 2,PyODPS 3底层Python语言版本为Python 3,请您根据实际使用Python语言版本创建PyODPS节点。更多创建PyODPS节点信息,请参见 开发PyODPS 2任务 和 开发PyODPS 3任务。使用限制 在PyODPS节点调用第...

导出开源引擎任务

使用导出工具,在内存通过Airflow的Python库读取Dag Python文件的内部任务信息及其依赖关系,将生成的Dag信息写入JSON文件进行导出。您可进入DataWorks的 迁移助手>任务上云>调度引擎作业导出 页面,下载导出工具。进入 调度引擎作业导出...

ACS:FC:ExecuteScript

动作描述 执行python脚本 语法 Action:ACS:FC:ExecuteScript Properties:runtime:String handler:String inputPayload:Json script:String attachment:String 属性 属性名称 描述 类型 是否必填 默认值 约束 runtime python的版本 String ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库Cassandra版 共享流量包 云数据库 RDS 邮件推送 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用