HTTP API 概览

TSDB 提供了一个基于 HTTP 的应用程序编程接口,以便与外部系统集成。几乎所有 TSDB 的特性都可以通过 API 来访问,比如查询时间序列数据、管理元数据和存储数据点。TSDB 的 HTTP API 本质上是 RESTful 的,同时也提供了替代访问策略,因为...

简介

API 应用程序编程接口 用户开放API,在API网关录入API,以提供接口的方式对外提供服务或者数据。Group API Group API分组 一组API。用户开放API,首先需要创建API分组 每个API分组拥有一个二级域名,两个Stage 用户需要将已经备案且解析至...

API使用规范

API 本规范中“API”指:阿里云向您提供的应用程序编程接口(Application Programming Interface,简称API),您编程后通过该应用程序编程接口,可获取阿里云提供的弹性计算服务(ECS)、关系数据库服务(RDS)和对象存储服务(OSS)等阿里...

阿里云OpenAPI

API应用程序编程接口)是一种允许应用程序之间相互通信的标准接口。API 允许开发者在多个不同的应用程序之间共享数据、功能和服务,使开发者更容易地实现连接两个应用程序之间的功能,也使开发人员可以更轻松地开发和扩展应用程序。Open...

基础术语

中文 释义 API 应用程序编程接口,是一些预先定义的函数,或指软件系统不同组成部分衔接的约定。API 分组 用于将 API 进行逻辑的分组,同个分组下的 API 使用相同的分组标识做隔离。分组标识 是网关全局的唯一标识,用于定位在访问的 API。...

数据服务概述

相关概念 API(Application Programming Interface,应用程序编程接口):API是让应用、软件、系统能够面向数据源进行数据交互的接口,数据服务API支持“读数据”的操作,可以从数据库、数据表中不断地进行数据查询。函数:作为API过滤器,...

前言

xProtocol API 详解 介绍基于 MOSN 协议扩展 API。内置协议 Bolt 插件深度解析 深入讲解 SOFA 体系标准 Bolt 协议插件化原理。课后练习:通过 MOSN mecha 完成 brpc 开发 介绍 brpc 协议、brpc 协议插件的开发步骤和注意事项。您需要根据...

在文件存储 HDFS 版上使用TensorFlow

本文介绍如何在 文件存储 HDFS 版 上使用TensorFlow。前提条件 已开通 文件存储 HDFS 版 服务并。具体操作,请参见 开通文件存储HDFS版服务。已完成创建文件系统、添加挂载点和挂载文件系统。具体操作,请参见 快速入门。已为Hadoop集群...

创建TensorFlow任务

通过ACK One Fleet实例,您可以使用和单集群相同的方式创建TensorFlow任务。由Fleet实例根据TensorFlow任务需要的资源和关联集群的剩余资源,执行动态调度策略,选择适合的关联集群下发TensorFlow任务。本文介绍如何创建TensorFlow任务并...

部署Tensorflow模型推理服务

本文介绍如何通过Arena将TensorFlow模型部署成推理服务。前提条件 已创建包含GPU的Kubernetes集群。集群节点可以访问公网。已配置Arena客户端。已完成TensorFlow单机训练。操作步骤 说明 本文采用TensorFlow 1.15训练的Bert模型部署推理...

使用AIACC-Training TensorFlow

TensorFlow目前进行数据分布式训练的主流方式是Horovod,AIACC-Training 1.5支持使用Horovod API兼容的方式对TensorFlow分布式训练进行加速。本文为您介绍使用AIACC-Training TensorFlow版的具体操作及可能遇到的问题。适配Horovod API 本...

产品优势

方便开发者快速构建与阿里云相关的应用程序,包括Java、Python、Node.js、Go等。最佳实践 提供集成阿里云OpenAPI的最佳实践。基于大量官方和用户主动分享的社区模式,帮助更多用户。全局可视 全方位展示集成运行状态,涵盖全局调用趋势、...

Triton Inference Server镜像部署

Triton Inference Server是一个适用于深度学习与机器学习模型的推理服务引擎,支持将TensorRT、TensorFlow、PyTorch或ONNX等多种AI框架的模型部署为在线推理服务,并支持多模型管理、自定义backend等功能。本文为您介绍如何通过镜像部署的...

查询可用集群信息列表

调用ListEmrAvailableConfig接口,查询可用集群信息列表。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action...

使用高性能容器应用

功能优势 高便捷性:提供多种操作系统(如Ubuntu、CentOS等)和各类应用框架(如TensorFlow、Intel oneAPI等)的系统镜像,并且支持Docker和Singularity主流容器镜像,实现了高性能容器应用的开箱即用。高兼容性:在软件方面,高性能容器...

TensorFlow Serving镜像部署

TensorFlow Serving是一个适用于深度学习模型的推理服务引擎,支持将TensorFlow标准的SavedModel格式的模型部署为在线服务,并支持模型热更新与模型版本管理等功能。本文为您介绍如何使用镜像部署的方式部署TensorFlow Serving模型服务。...

模型评测

from kubeai.evaluate.evaluator import Evaluator from abc import ABC from kubeai.api import KubeAI import tensorflow as tf import numpy as np from tensorflow.keras import layers,models class CNN(object):def_init_(self):...

在ACK集群上使用eRDMA

当运行tensorflow等RDMA带外建联的程序时,安装eRDMA驱动需配置为compat模式:rmmod erdma insmod/var/lib/dkms/erdma/1.0.1/`uname-r`/x86_64/module/erdma.ko compat_mode=1 步骤三:运行应用 在Dockerfile中增加eRDMA库安装,并重新构建...

PAI-TF数据IO方式介绍

PAI-TensorFlow支持读取OSS对象存储数据和MaxCompute表数据。警告 公共云GPU服务器即将过保下线,您可以继续提交CPU版本的TensorFlow任务。如需使用GPU进行模型训练,请前往DLC提交任务,具体操作请参见 创建训练任务。读取OSS数据 主流程 ...

Tensorflow

tensorflow_cpu_2.7 Tensorflow 2.7 否 tensorflow_gpu_1.12 Tensorflow 1.12 是 tensorflow_gpu_1.14 Tensorflow 1.14 是 tensorflow_gpu_1.15 Tensorflow 1.15 是 tensorflow_gpu_2.4 Tensorflow 2.4 是 tensorflow_gpu_2.7 Tensorflow 2...

部署PyTorch模型推理服务

更多信息,请参见API文档 Nvidia Triton Server API。curl"http://<Ingress地址>"预期输出:{"name":"chnsenticorp","versions":["1623831335"],"platform":"tensorflow_savedmodel","inputs":[{"name":"input_ids","datatype":"INT64",...

预置Processor使用说明

1.14 TensorFlow1.14 Processor TensorFlow1.15 tensorflow_cpu_1.15 tensorflow_gpu_1.15 TensorFlow1.15 Processor(内置PAI-Blade敏捷版优化引擎)TensorFlow2.3 tensorflow_cpu_2.3 无 TensorFlow2.3 Processor PyTorch1.6 pytorch_cpu...

搭建TensorFlow

背景信息 近些年来,人工智能与机器学习已经被广泛应用到各个领域,各种各样的训练模型被提出,更多的训练任务运行到云上。然而上云之后,想要轻松、持久地运行训练任务,仍有一些痛点,例如:环境搭建麻烦:需要购买GPU实例并安装GPU驱动...

使用ECI运行TensorFlow任务

背景信息 近些年来,人工智能与机器学习已经被广泛应用到各个领域,各种各样的训练模型被提出,更多的训练任务运行到云上。然而上云之后,想要轻松、持久地运行训练任务,仍有一些痛点,例如:环境搭建麻烦:需要购买GPU实例并安装GPU驱动...

监控集群GPU资源最佳实践

apiVersion:batch/v1 kind:Job metadata:name:tensorflow-benchmark-exclusive spec:parallelism:1 template:metadata:labels:app:tensorflow-benchmark-exclusive spec:containers:name:tensorflow-benchmark image:registry....

PAI官方镜像

TensorFlow 框架版本 CUDA版本(仅GPU机型)操作系统 TensorFlow2.6 TensorFlow2.3 TensorFlow2.21 TensorFlow2.11 TensorFlow1.15,TensorFlow1.15.5 TensorFlow1.12 CUDA 114 CUDA 113 CUDA 112 CUDA 101 CUDA 100 Ubuntu 20.04 Ubuntu ...

TensorFlow常见问题

本文为您介绍TensorFlow的相关问题。如何开通深度学习功能?如何支持多Python文件引用?如何上传数据到OSS?如何读取OSS数据?如何为OSS写入数据?为什么运行过程中出现OOM?TensorFlow有哪些案例?如何查看TensorFlow相关日志?配置两个...

提交GPU共享模型推理任务

系统输出类似以下结果:2021-01-18 13:21:58.482985:I external/org_tensorflow/tensorflow/cc/saved_model/loader.cc:206]Restoring SavedModel bundle.2021-01-18 13:21:58.483673:I external/org_tensorflow/tensorflow/core/platform/...

PAI-TF概述

PAI-TF使用的API与开源版本一致,您可以直接通过TensorFlow Training Script接口提交作业至MaxCompute的计算集群中执行。分布式调度 PAI为您提供海量的计算资源,所有的计算资源通过GPU Quota进行管理。PAI-TF的作业都是基于底层的分布式...

优化TensorFlow模型

PAI-Blade提供了丰富的模型优化方法,您只需要在本地环境中安装Wheel包,即可通过调用Python API的方式进行模型优化。本文介绍如何使用PAI-Blade优化TensorFlow模型,所有实验结果均在NVidia T4卡上测得。前提条件 已安装TensorFlow及PAI-...

GPU节点卡型属性标签

在使用Kubernetes集群实现GPU计算时,为了有效利用GPU设备,可使用GPU节点卡型属性标签将应用调度至目标节点。本文介绍GPU节点卡型属性标签基本信息以及如何使业务运行或不运行在指定卡型上。GPU节点卡型属性标签说明 在ACK集群中扩容GPU...

基于ECI的弹性推理

arena serve tensorflow \-namespace=default \-name=bert-tfserving \-model-name=chnsenticorp \-gpus=1 \-image=tensorflow/serving:1.15.0-gpu \-data=model-pvc:/data \-model-path=data/models/tensorflow/chnsenticorp \-version-...

基于ECS的弹性推理

arena serve tensorflow \-name=bert-tfserving \-model-name=chnsenticorp \-selector=inference:tensorflow \-gpus=1 \-image=tensorflow/serving:1.15.0-gpu \-data=model-pvc:/models \-model-path=models/tensorflow \-version-policy...

AI加速:使用EPL实现AI训练加速

EPL(Easy Parallel Library)是高效易用的分布式模型训练框架,深度集成多种训练优化技术,提供了简单易用的API实现各种并行化策略。您可以使用EPL实现低成本、高性能分布式模型训练。本文为您介绍如何在DLC中使用EPL高效地进行分布式...

云原生AI套件开发者使用指南

本文以开源数据集fashion-mnist任务为例,介绍开发者如何利用云原生AI...apiVersion:v1 kind:PersistentVolume metadata:name:fashion-demo-pv spec:accessModes:ReadWriteMany capacity:storage:10Gi csi:driver:ossplugin.csi.alibabacloud....

GetCommonImage-获取常用镜像

获取ehpc当前提供的镜像,包括intel oneapi镜像,pytorch镜像,TensorFlow镜像等。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 授权信息 下表是API...

开启集群GPU监控

GPU监控2.0基于NVIDIA DCGM构建...apiVersion:batch/v1 kind:Job metadata:name:tensorflow-benchmark spec:parallelism:1 template:metadata:labels:app:tensorflow-benchmark spec:containers:name:tensorflow-benchmark image:registry....

TensorFlow服务请求构造

本文为您介绍如何为基于通用Processor的TensorFlow服务构造请求数据。输入数据 EAS 预置了TensorFlow Processor,为保证性能,其输入输出为ProtoBuf格式。调用案例 EAS 在华东2(上海)的VPC环境中部署了一个Public的测试案例,其服务名称...

TableWriter API

您可以使用TableWriter API对MaxCompute表进行读写。警告 公共云GPU服务器即将过保下线,您可以继续提交CPU版本的TensorFlow任务。如需使用GPU进行模型训练,请前往DLC提交任务,具体操作请参见 创建训练任务。读写MaxCompute表的功能由 ...

使用EAS Python SDK部署模型

背景信息 本文旨在介绍如何在Python环境中,通过SDK调用EAS接口来部署和调用基于MNIST数据集训练的手写数字识别模型服务。MNIST数据集是手写的数字0~9的数据集,本文会随机选取一个手写数字测试样本并输出其灰度图像,以此作为输入数据对...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
API 网关 对象存储 风险识别 视觉智能开放平台 短信服务 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用