API参考

如果您熟悉网络服务协议和一种以上编程语言,推荐您调用API管理您的上资源和开发自己的应用程序。GPU云服务器适用的API和云服务器ECS一致,详情请参见 ECS API简介 和 ECS API概览。

云速搭部署GPU云服务器

通过云速搭实现GPU云服务器的部署,这里使用 ECS 的 UserData 特性自动安装GPU 驱动、AIACC 等组件,减少配置工作量。涉及产品 专有网络VPC GPU云服务器 弹性公网IP 云速搭CADT 方案架构 操作步骤 具体操作步骤请参考《云速搭部署 GPU ...

什么是神行工具包(DeepGPU)

神行工具包(DeepGPU)是阿里专门为GPU云服务器搭配的GPU计算服务增强工具集合,旨在帮助开发者在GPU云服务器上更快速地构建企业级服务能力。GPU云服务器搭配神行工具包(DeepGPU)中的组件可以帮助您更方便地利用阿里上GPU资源,...

GPU集群中加速AI模型训练

本文适用于AI图片的训练场景,使用文件存储CPFS/NAS作为共享存储,使用容器服务Kubernetes版管理GPU云服务器集群实现AI图片的训练加速。方案优势 使用阿里的容器服务ACK可快速搭建AI图片训练基础环境。使用CPFS存储训练数据,支持多个...

使用RAPIDS加速机器学习最佳实践

部署架构图 选用的产品列表 产品名称 说明 GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。文件存储NAS 是一种可共享访问、弹性扩展、高可靠以及高...

使用RAPIDS加速图像搜索最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速图像搜索环境。使用容器服务Kubernetes版可快速部署图像搜索环境和分发应用。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务...

使用AIACC-Training(AIACC训练加速)加速BERT Fine...

部署架构图 选用的产品列表 产品名称 说明 GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。极速型NAS 是基于阿里最新一代网络架构和全闪存储打造的...

ACK集群实现GPU AI模型训练

场景描述 本方案适用于AI图片训练场景,使用CPFS和NAS作为共享存储,利用容器服务Kubernetes版管理GPU云服务器集群进行图片AI训练。解决问题 搭建AI图片训练基础环境。使用CPFS存储训练数据。使用飞天AI加速训练工具加速训练。使用Arena一...

什么是推理引擎DeepGPU-LLM

DeepGPU-LLM是阿里研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。产品简介 DeepGPU-LLM作为阿里开发的一套推理引擎,具有易用性...

使用FastGPU加速AI训练/推理

选用的产品列表 产品名称 说明 GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。对象存储OSS 是一款海量、安全、低成本、高可靠的云存储服务,多种存储...

产品范围

专属区域可以支持的产品范围 专属区域支持的产品范围 IaaS产品:云服务器 ECS、弹性裸金属服务器 EBM、GPU 云服务器、FPGA 云服务器、Alibaba Cloud Linux、容器服务 ACK、容器镜像服务 ACR、块存储 EBS、对象存储 OSS、文件存储 NAS、...

什么是GPU云服务器

对比项 GPU云服务器 GPU自建服务器 灵活性 能够快速开通一台或多台GPU云服务器实例。实例规格(vCPU、内存及GPU)支持灵活变更,并且支持在线升降配。带宽升降自由。服务器购买周期长。服务器规格固定,无法灵活变更。带宽一次性购买,无法...

产品优势

阿里GPU云服务器具有广阔的覆盖范围、超强的计算能力、出色的网络性能和灵活的购买方式,神行工具包(DeepGPU)是专门为GPU云服务器搭配的具有GPU计算服务增强能力的免费工具集。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的优势。...

准实时推理场景

与函数计算同等GPU规格的GPU云服务器单价约为 14元/小时。更多计费详情,请参见 GPU云服务器计费。示例一 假设您的GPU函数一天调用量为3600次,每次为1秒钟,使用4 GB显存规格的GPU实例(模型大小为3 GB左右)。您的日均资源利用率(仅时间...

准实时推理场景

与函数计算同等GPU规格的GPU云服务器单价约为 14元/小时。更多计费详情,请参见 GPU云服务器计费。示例一 假设您的GPU函数一天调用量为3600次,每次为1秒钟,使用4 GB显存规格的GPU实例(模型大小为3 GB左右)。您的日均资源利用率(仅时间...

阿里异构计算产品总览

作为阿里弹性计算家族的一员,GPU云服务器结合了GPU计算力与CPU计算力,同时实现GPU计算资源的即开即用和弹性伸缩。满足您在人工智能、高性能计算、专业图形图像处理等场景中的需求。更多信息,请参见 什么是GPU云服务器。神行工具包...

安装共享GPU调度组件

ACK Pro集群的实例规格架构设置为 GPU云服务器。其他配置,请参见 创建ACK集群Pro版。已获取集群KubeConfig并通过kubectl工具连接集群。使用限制 请勿将共享GPU调度的节点的CPU Policy设置为 static。cGPU服务的隔离功能不支持以UVM的方式...

接入Nvidia GPU监控数据

Nvidia GPU服务器中提供多项监控指标,您可以将Nvidia GPU服务器中的监控指标接入到全栈可观测应用中,进行可视化展示。前提条件 已创建实例。具体操作,请参见 创建实例。步骤一:安装NVIDIA GPU驱动 日志服务 使用 nvidia-smi 命令采集...

应用场景

推荐搭配使用:云服务器 ECS/GPU 服务器 EGS/高性能计算服务(Alibaba Cloud HPC)+容器服务+对象存储 OSS/文件存储 NAS/CPFS 相关文档:PyTorch分布式训练 TensorFlow分布式训练 微服务架构 实现敏捷开发和部署落地,加速企业业务迭代...

Designer中GPU服务器及对应算法组件下线

Designer中GPU服务器及对应算法组件下线,后续可使用原生版本 停止服务内容 因当前提供服务的V100、P100服务器集群即将过保,PAI将在2024年3月1日正式下线Designer中的TensorFlow(GPU)、MXNet、PyTorch算法组件。您后续可继续使用原生...

神行工具包(DeepGPU)计费

使用神行工具包(DeepGPU)本身不需要额外支付费用,您只需要为执行计算任务过程中使用的阿里资源(例如云服务器ECS或文件存储NAS)进行付费。神行工具包中的组件主要包括 AI训练加速器Deepytorch Training、AI推理加速器Deepytorch ...

拉高服务器内存占用率

若需要测试应用在内存占用率高的情况下是否能正常运行,您可以通过 PelicanDT 轻松地模拟服务器内存占用率高的测试环境。本文将介绍使用 PelicanDT 拉高服务器内存占用率的方法。前提条件 您已安装 PelicanDT SDK,请参见 安装 PelicanDT ...

应用场景

GPU云服务器适用于视频转码、图片渲染、AI训练、AI推理、云端图形工作站等场景,神行工具包(DeepGPU)为了配合GPU云服务器的计算服务增强能力,也适用于所有AI训练场景和AI推理场景。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的...

使用ACK服务实现GPU的成本优化

GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。容器服务ACK 该服务提供了高性能且可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理...

设置或重置服务器密码

操作步骤 登录 轻量应用服务器管理控制台。在左侧导航栏,单击 服务器。在需要设置或者重置密码的轻量应用服务器卡片中,单击 重置密码。在弹出的 重置密码 对话框中,输入新的服务器密码并确认密码,然后单击 重置密码。重要 设置密码不能...

新手指引

轻量应用服务器是一款可快速搭建且易于管理的轻量级云服务器,面向单台服务器提供了一键部署应用、一站式域名解析、安全管理以及运维监控等服务。本文介绍了轻量应用服务器的基础知识、快速使用流程、控制台的使用指引、计费方式、以及新手...

常见问题

阿里云云安全中心结合阿里云云计算平台强大的数据分析能力,为您提供一站式安全服务,例如安全漏洞检测、网页木马检测、面向云服务器用户提供的主机入侵检测和防御DDoS流量攻击等。更多安全服务,请查看 安全产品 页面。如何检测服务器是否...

云服务使用限制索引

弹性计算 云服务 使用限制 云服务器ECS 使用限制 弹性裸金属服务器 使用限制 FPGA云服务器 使用限制 GPU云服务器 使用限制 存储容量单位包 使用限制 块存储 使用限制 轻量应用服务器 使用限制 专有宿主机 使用限制 批量计算 使用限制 容器...

使用GPU拓扑感知调度(Pytorch版)

前提条件 已创建ACK Pro集群,且集群的实例规格类型选择为 GPU云服务器。更多信息,请参见 创建Kubernetes托管版集群。已安装 Arena。已安装GPU拓扑感知调度组件。系统组件版本满足以下要求。组件 版本要求 Kubernetes 1.18.8及以上版本 ...

创建轻量应用服务器

重要 当您参考云服务器ECS的建站教程在轻量应用服务器上手动建站时,建议您选择手动搭建网站或应用的教程,并且教程中所选用的操作系统版本信息需要和轻量应用服务器的系统镜像版本信息一致。否则可能因为版本不兼容等原因导致运行命令报错...

监控面板说明

GPU监控2.0基于Exporter+Prometheus+Grafana体系打造更为丰富的GPU监控场景。本文介绍监控大盘中各个监控面板(Panel)的含义。Panel介绍 GPU监控2.0包含集群维度监控大盘和节点维度监控大盘。两种大盘的具体说明如下:集群维度监控大盘 ...

轻量应用服务器数据迁移至ECS实例

如果当前轻量应用服务器无法满足您的业务需求,您可以将同一阿里账号下轻量应用服务器平滑迁移至同地域或者跨地域下的云服务器ECS,以获取更加灵活的资源配置方案。本文介绍如何将轻量应用服务器迁移至ECS实例。迁移影响 影响项 说明 ...

购买组合套餐(服务器+负载均衡)

重要 当您参考云服务器ECS的建站教程在 轻量应用服务器 上手动建站时,建议您选择手动搭建网站或应用的教程,并且教程中所选用的操作系统版本信息需要和 轻量应用服务器 的系统镜像版本信息一致。否则可能因为版本不兼容等原因导致运行命令...

基本概念

本文汇总使用GPU云服务器过程中涉及的基本概念,方便您查询和了解相关概念。GPU云服务器相关概念 概念 说明 GPU 图形处理器(Graphics Processing Unit)。相比CPU具有众多计算单元和更多的流水线,适合用于大规模并行计算等场景。CUDA ...

异构计算产品最佳实践概览

GPU AI模型训练最佳实践 适用于AI图片训练场景,使用CPFS/NAS作为共享存储,利用容器服务Kubernetes版管理GPU云服务器集群进行AI图片训练。在GPU实例上使用RAPIDS加速机器学习任务 在GPU实例上基于NGC环境使用RAPIDS加速库,加速数据科学和...

监控集群GPU资源最佳实践

出现该现象可能是指标产生的时间点到下一次产生的15s间隔时间内,有Pod完成了任务,释放了GPU资源,调度感知后,将处于Pending的Pod调度到这个节点上。监控大盘只支持监控通过在Pod中配置 resources.limits 的方式申请的GPU资源。更多...

GPU监控

请确保您已在云服务器ECS上安装监控插件。具体操作,请参见 安装监控插件。监控项说明 您可以从GPU、实例和应用分组维度查看GPU相关监控项。GPU的监控项如下表所示。监控项 单位 MetricName Dimensions(Agent)GPU维度解码器使用率%...

GPU实例上使用RAPIDS加速图像搜索任务

执行案例后,对比了GPU加速的RAPIDS cuml KNN与CPU实现的scikit-learn KNN的性能,可以看到GPU加速的KNN向量检索速度为CPU的近600倍。操作步骤 步骤一:创建GPU实例 具体步骤请参见 使用向导创建实例。实例:RAPIDS仅适用于特定的GPU型号...

GPU云服务器计费

GPU云服务器计费相关功能与云服务器ECS一致,本文为您介绍GPU云服务器涉及的计费项、计费方式、续费和退费说明等。计费项及其计费方式 一台GPU实例包括计算资源(vCPU、内存和GPU)、镜像、块存储等资源,其中涉及计费的GPU资源如下表所示...

GPU调度概述

共享GPU调度 阿里容器服务Kubernetes版ACK(Container Service for Kubernetes)开源了GPU共享调度之后,您能在阿里、AWS、GCE和自己数据中心的容器集群上通过GPU共享调度框架实现多个容器运行在同一个GPU设备上的目标。ACK开源GPU共享...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
GPU云服务器 云服务器 ECS 轻量应用服务器 负载均衡 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用