使用Python SDK管理日志库Logstore

def get_logstore():print("ready to get logstore")res=client.get_logstore(project_name,logstore_name)res.log_print()print("get logstore success")if_name_='_main_':#创建Logstore。create_logstore()#查询Logstore。get_logstore...

远程鉴权

变量名称与变量含义的介绍,请参见 变量名称。保留请求头设置 用于控制用户请求头中需要参与鉴权的参数。可以选择 保留所有参数、保留指定参数 和 删除所有请求头参数。保留指定参数时,多个请求头用竖线(|)分隔,例如:user_agent|...

控制结构

这种形式的 CASE 整体上等价于 IF-THEN-ELSIF,不同处在于 CASE 到达一个被忽略的 ELSE 子句时会导致一个错误而不是什么也不做。简单循环 使用 LOOP、EXIT、CONTINUE、WHILE、FOR 和 FOREACH 语句,你可以安排PL/SQL重复一系列命令。LOOP...

使用Python SDK管理机器组

res=client.get_machine_group(project_name,group_name)print(res.get_machine_group().to_json())print("get machinegroup success")预期结果如下:ready to get machinegroup {'groupName':'ali-test-machinegroup','groupType':'','...

开发PyODPS 2任务

DataWorks提供PyODPS 2节点类型,您可以在DataWorks上通过PyODPS语法进行PyODPS任务开发,PyODPS集成了MaxCompute的Python SDK。支持您在DataWorks的PyODPS 2节点上直接编辑Python代码,操作MaxCompute。前提条件 已创建PyODPS 2节点,详情...

新建Flink SQL类型的公共节点

Flink SQL节点是流式节点,运行于Flink云计算资源上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL和DataHub等类型的数据进行处理。本文介绍如何新建Flink SQL类型的公共节点。背景信息 Flink SQL是...

错误处理

break except LogException as e:if e.get_error_code()="RequestError":if i+1=maxRetries:print("error code:"+e.get_error_code())print("error message:"+e.get_error_message())break else:print("request error happens,retry it!...

开发PyODPS 3任务

o.get_table('table_name').get_partition('ds='+args['ds'])更多场景的PyODPS任务开发,请参考:PyODPS使用第三方包 节点运行ECS机器上的脚本 PyODPS节点实现结巴中文分词 PyODPS节点实现避免将数据下载到本地 后续步骤 如何判断Shell...

新建Flink Vvp SQL类型的公共节点

Flink Vvp SQL节点是流式节点,运行于Flink云计算资源上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB PostgreSQL和DataHub等类型的数据进行处理。本文介绍如何新建Flink Vvp SQL类型的...

申请短信签名和模板

模板中的两个变量不能相邻,前后需加文字说明,以体现模板使用者的商业意图,不支持组合变量变量相邻,例如${code}${name},不支持全变量模板。正确示例:兹定于${time}于${place}召开${content}会议,请准时参加。公众号、小程序、App、...

新建RDS MySQL类型的公共节点

RDS MySQL节点是离线节点,运行于RDS MySQL类型的云计算资源上,可通过输入SQL语句处理RDS MySQL类型的数据源。本文介绍如何新建RDS MySQL类型的公共节点。前提条件 已创建RDS MySQL类型的云计算资源,具体操作,请参见 新建云计算资源。...

客户端直传

app.get('/get_sts_token_for_oss_upload',(req,res)=>{ let sts=new STS({ accessKeyId:accessKeyId,accessKeySecret:accessKeySecret });roleArn填写步骤2获取的角色ARN,例如acs:ram:175708322470*:role/ramtest。policy填写自定义权限...

Java SDK使用说明

物联网平台提供的Java SDK,可帮助开发人员通过Java程序更便捷地操作物联网平台。开发人员可以添加包含Maven依赖的SDK,也可以下载安装包到本地直接安装。安装SDK 安装Java开发环境。您可以从Java 官方网站下载,并按说明安装Java开发环境...

新建Spark Batch类型的公共节点

Spark Batch节点是离线节点,运行于Spark类型的云计算资源上,可通过输入SQL语句处理Spark类型的数据源。本文介绍如何新建Spark Batch类型的公共节点。前提条件 已创建Spark On Yarn或者Spark Cluster类型的云计算资源,具体信息,请参见...

新建Spark SQL类型公共节点并运行

Spark SQL节点是离线节点,运行于Spark类型的云计算资源上,可通过输入SQL语句处理Spark类型的数据源。本文介绍如何新建Spark SQL类型的公共节点并运行。前提条件 已创建Spark On Yarn或者Spark Cluster类型的云计算资源,具体信息,请...

新建Hologres类型公共节点

Hologres离线数据节点,运行于Hologres云计算资源上,支持对MaxCompute和Hologres类型的数据进行处理。本文介绍如何新建Hologres类型的公共节点。前提条件 已新建Hologres类型的云计算资源,具体操作,请参见 新建云计算资源。操作步骤 ...

新建MaxCompute SQL类型的公共节点

MaxCompute SQL节点是离线节点,运行于MaxCompute类型的云计算资源上,可通过输入SQL语句处理MaxCompute类型的数据源。本文介绍如何新建MaxCompute SQL类型的公共节点。前提条件 已新建MaxCompute类型的云计算资源,具体操作,请参见 ...

新建Hive类型的公共节点

Hive类型的节点是离线节点,运行在Hive云计算资源上,支持处理Hive、Hbase和Phoenix类型的数据。本文介绍如何新建Hive类型的公共节点。前提条件 已新建Hive类型云计算资源,具体操作,请参见 新建云计算资源。背景信息 Hive节点运行于...

开发环境准备

后续教程的接口调用是基于Python3版本的SDK,请先自行安装Python3.9或以上版本,并安装pip。安装SDK pip install alibabacloud_gpdb20160503 pip install alibabacloud_tea_openapi 本文档的 alibabacloud_gpdb20160503 以3.5.0版本为例,...

新建RDS MySQL类型的公共节点

RDS MySQL节点是离线节点,运行于RDS MySQL类型的云计算资源上,可通过输入SQL语句处理RDS MySQL类型的数据源。本文介绍如何新建RDS MySQL类型的公共节点。前提条件 已创建RDS MySQL类型的云计算资源,具体操作,请参见 新建云计算资源。...

管理API

DMS数据服务提供了功能强大、开发便捷的API模块,本文介绍新增API、发布API、测试API的操作步骤。前提条件 已开通 API网关。步骤一:新增API 登录 数据管理DMS 5.0。在顶部菜单栏中,选择 集成与开发(DTS)>数据应用>数据服务。说明 若您...

采集数据

教程以MySQL中的用户基本信息(ods_user_info_d)表及OSS中的网站访问日志数据(user_log.txt)文件,通过数据集成离线同步任务分别同步至MaxCompute的ods_user_info_d、ods_raw_log_d表为例,为您介绍如何通过DataWorks数据集成实现异构...

使用OpenAPI示例(SDK)

在桌面右键单击 此电脑,选择 属性>高级系统设置>环境变量>系统变量/用户变量>新建,完成以下配置:变量 示例值 AccessKey ID 变量名:ALIBABA_CLOUD_ACCESS_KEY_ID 变量值:LTAI4GDty8ab9W4Y1D*AccessKey Secret 变量名:ALIBABA_CLOUD_...

快速入门

createFunction('service_name',array('functionName'=>"function_name",'handler'=>'index.handler','initializer'=>'index.initializer','runtime'=>'php7.2','memorySize'=>128,'code'=>array('zipFile'=>base64_encode(file_get_...

新建Elastic Service在线类型的公共节点

背景信息 Elastic Service运行于Elastic Service类型的云计算资源上,可处理MaxCompute、ApsaraDB for RDS、Table Store、Hive、Kafka、Hbase、Object Storage Service、AnalyticDB PostgreSQL和DataHub等类型的数据。以下为各种在线服务...

新建Flink Vvr Stream类型的公共节点

Flink Vvr Stream节点是流式节点,运行于Flink云计算资源上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL和DataHub等类型的数据进行处理。本文介绍如何新建Flink Vvr Stream类型的公共节点。背景信息 ...

作业开发问题

collect(Row.of(getString(resultDO.get("resultId")),getString(resultDO.get("pointRange")),getString(resultDO.get("from")),getString(resultDO.get("to")),getString(resultDO.get("type")),getString(resultDO.get("pointScope")),...

新建Blink类型的公共节点

Blink节点是流式节点,运行于Blink云计算资源上,支持对DataHub Service、AnalyticDB MySQL、Table Store、MaxCompute、AnalyticDB PostgreSQL和RDS MYSQL类型的数据源进行处理。本文介绍如何新建Blink类型的公共节点。操作步骤 方式一:...

新建Spark Stream类型的公共节点

Spark Stream节点是流式节点,运行于Spark云计算资源上,支持对RDS MySQL、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQL和DataHub等类型的数据进行处理。本文介绍如何新建Spark Stream类型的公共...

新建Hive类型的公共节点

Hive类型的节点是离线节点,运行在Hive云计算资源上,支持处理Hive、Hbase和Phoenix类型的数据。本文介绍如何新建Hive类型的公共节点。前提条件 已新建Hive类型云计算资源,具体操作,请参见 新建云计算资源。背景信息 Hive节点运行于...

案例推理-训练

功能说明 案例推理是通过寻找与相似的历史案例,利用已有经验或结果中的特定知识及具体案例来解决新问题。计算逻辑原理 通过历史数据的采集,整理和挑选形成优质案例库,结合目前工况与历史最优数据进行对比,推荐接近的控 制目标推荐值...

新建MaxCompute SQL类型的公共节点

MaxCompute SQL节点是离线节点,运行于MaxCompute类型的云计算资源上,可通过输入SQL语句处理MaxCompute类型的数据源。本文介绍如何新建MaxCompute SQL类型的公共节点。前提条件 已新建MaxCompute类型的云计算资源,具体操作,请参见 ...

阿里云视觉智能服务

Quick Start 本示例演示了基于 Python 语言开发调用阿里云视觉智能开放能力的应用,展示了「文字识别服务」与「图像增强服务」两个视觉智能 AI 的应用。前置准备 开通阿里云视觉智能 viapi_ocr_public_cn/文字识别服务 ...

集成SDK

在桌面右键单击 此电脑,选择 属性>高级系统设置>环境变量>系统变量/用户变量>新建,完成以下配置:变量 示例值 AccessKey ID 变量名:ALIBABA_CLOUD_ACCESS_KEY_ID 变量值:LTAI4GDty8ab9W4Y1D*AccessKey Secret 变量名:ALIBABA_CLOUD_...

客户端加密

更强的自主控制权:企业或者开发者可能希望对加密过程有完全的控制权,包括选择加密算法、管理和轮换密钥。通过客户端加密,可以实现这一目标,确保只有合法授权的用户才能解密和访问数据。跨区域数据迁移安全性:在将数据从一个地区迁移到...

查询异步任务结果

access_key_id=os.environ.get('ALIBABA_CLOUD_ACCESS_KEY_ID'),access_key_secret=os.environ.get('ALIBABA_CLOUD_ACCESS_KEY_SECRET'),#访问的域名 endpoint='viapi.cn-shanghai.aliyuncs.com',#访问的域名对应的region region_id='...

热搜和底纹Demo

配置环境变量 配置环境变量 ALIBABA_CLOUD_ACCESS_KEY_ID 和 ALIBABA_CLOUD_ACCESS_KEY_SECRET。重要 阿里云账号AccessKey拥有所有API的访问权限,建议您使用RAM用户进行API访问或日常运维,具体操作,请参见 创建RAM用户。创建AccessKey ...

管理访问凭据

通过指定RAM角色的ARN(Alibabacloud Resource Name),Credentials工具可以帮助开发者前往STS换取STS Token。您也可以通过为 policy 赋值来限制RAM角色到一个更小的权限集合。import os from alibabacloud_credentials.client import ...

通过环境变量方式采集日志

ECI支持通过容器的环境变量传入日志相关的自定义配置。本文介绍如何通过环境变量来配置日志采集,实现通过阿里云日志服务SLS自动采集容器日志。背景信息 阿里云日志服务SLS(Log Service)是针对日志数据的一站式服务,您无需开发就能快捷...

通过环境变量方式采集日志

ECI支持通过容器的环境变量传入日志相关的自定义配置。本文介绍如何通过环境变量来配置日志采集,实现通过阿里云日志服务SLS自动采集容器日志。背景信息 阿里云日志服务SLS(Log Service)是针对日志数据的一站式服务,您无需开发就能快捷...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
移动开发平台 mPaaS 大数据开发治理平台 DataWorks 文件存储 CPFS 云解析DNS 云数据库 RDS 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用