API参考

如果您熟悉网络服务协议和一种以上编程语言,推荐您调用API管理您的上资源和开发自己的应用程序。GPU云服务器适用的API和云服务器ECS一致,详情请参见 ECS API简介 和 ECS API概览。

云速搭部署GPU云服务器

通过云速搭实现GPU云服务器的部署,这里使用 ECS 的 UserData 特性自动安装GPU 驱动、AIACC 等组件,减少配置工作量。涉及产品 专有网络VPC GPU云服务器 弹性公网IP 云速搭CADT 方案架构 操作步骤 具体操作步骤请参考《云速搭部署 GPU ...

什么是神行工具包(DeepGPU)

神行工具包(DeepGPU)是阿里专门为GPU云服务器搭配的GPU计算服务增强工具集合,旨在帮助开发者在GPU云服务器上更快速地构建企业级服务能力。GPU云服务器搭配神行工具包(DeepGPU)中的组件可以帮助您更方便地利用阿里上GPU资源,...

应用场景

GPU云服务器适用于视频转码、图片渲染、AI训练、AI推理、云端图形工作站等场景,神行工具包(DeepGPU)为了配合GPU云服务器的计算服务增强能力,也适用于所有AI训练场景和AI推理场景。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的...

使用RAPIDS加速机器学习最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速机器学习环境。使用容器服务Kubernetes版部署RAPIDS加速机器学习环境。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务器 该...

使用RAPIDS加速图像搜索最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速图像搜索环境。使用容器服务Kubernetes版可快速部署图像搜索环境和分发应用。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务...

使用ACK服务实现GPU的成本优化

GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。容器服务ACK 该服务提供了高性能且可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理...

GPU监控

前提条件 请确保您已在云服务器ECS上创建GPU计算型实例,且已安装GPU驱动。具体操作,请参见 创建GPU实例。说明 如果您先安装监控插件,再安装GPU驱动,则需要重启监控插件。关于如何重启监控插件,请参见 如何重启监控C++版本插件...

异构计算产品最佳实践概览

GPU云服务器 搭建Linux环境License Server 使用GRID驱动必须申请相应的License,同时需要将License部署在License Server上,本教程以Ubuntu 18.04操作系统为例,介绍如何搭建Linux操作系统的License Server。搭建Windows环境的License ...

什么是推理引擎DeepGPU-LLM

DeepGPU-LLM是阿里研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。产品简介 DeepGPU-LLM作为阿里开发的一套推理引擎,具有易用性...

Tesla或GRID驱动安装指引

GPU实例本身并未配备相关驱动,只有安装了驱动的GPU实例,才能实现计算加速或图形渲染等功能。根据不同GPU实例规格安装与之匹配的Tesla或GRID驱动,...如果GPU实例安装驱动后,在使用过程中遇到黑屏或其他问题,请参见 GPU云服务器常见问题。

部署GPU云服务器

请按照标签顺序依次点击 新建>新建空白应用,构建如图所示的包含GPU云服务器实例的应用架构:本文所选地域为 华北2(北京)可用区H。双击GPU实例,配置相关参数。参考 创建GPU实例,选择对应的实例规格、镜像及版本。需要修改自定义登录...

ACK集群实现GPU AI模型训练

场景描述 本方案适用于AI图片训练场景,使用CPFS和NAS作为共享存储,利用容器服务Kubernetes版管理GPU云服务器集群进行图片AI训练。解决问题 搭建AI图片训练基础环境。使用CPFS存储训练数据。使用飞天AI加速训练工具加速训练。使用Arena一...

使用FastGPU加速AI训练/推理

选用的产品列表 产品名称 说明 GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。对象存储OSS 是一款海量、安全、低成本、高可靠的存储服务,多种存储...

什么是GPU云服务器

对比项 GPU云服务器 GPU自建服务器 灵活性 能够快速开通一台或多台GPU云服务器实例。实例规格(vCPU、内存及GPU)支持灵活变更,并且支持在线升降配。带宽升降自由。服务器购买周期长。服务器规格固定,无法灵活变更。带宽一次性购买,无法...

安装CUDA

如果您想要在GPU云服务器上进行GPU加速计算任务(例如科学计算或大规模并行计算等),则需要安装CUDA开发运行环境。CUDA提供了一整套工具和库,可以帮助您进行GPU加速的程序开发,以充分发挥NVIDIA GPU的计算潜力,提高计算性能和加速运行...

云服务使用限制索引

弹性计算 云服务 使用限制 云服务器ECS 使用限制 弹性裸金属服务器 使用限制 FPGA云服务器 使用限制 GPU云服务器 使用限制 存储容量单位包 使用限制 块存储 使用限制 轻量应用服务器 使用限制 专有宿主机 使用限制 批量计算 使用限制 容器...

GPU监控

前提条件 请确保您已在云服务器ECS上创建GPU计算型实例,且已安装GPU驱动。具体操作,请参见 创建GPU实例。说明 如果您先安装监控插件,再安装GPU驱动,则需要重启监控插件。关于如何重启监控插件,请参见 如何重启监控C++版本插件...

阿里异构计算产品总览

GPU云服务器 GPU云服务器是基于GPU应用的计算服务器GPU在执行复杂的数学和几何计算方面有着独特的优势。特别是浮点运算、并行运算等方面,GPU可以提供上百倍于CPU的计算能力。作为阿里弹性计算家族的一员,GPU云服务器结合了GPU计算力...

GPU自助诊断

ECS管理控制台支持配置 GPU设备健康检查 功能,通过该功能可以对当前实例的GPU卡状态或驱动状态进行全方位诊断,方便您自行诊断当前实例的GPU卡或驱动是否存在异常,帮助您及时发现和解决存在的常见问题。前提条件 已创建GPU实例且该实例...

安装共享GPU调度组件

ACK Pro集群的实例规格架构设置为 GPU云服务器。其他配置,请参见 创建ACK集群Pro版。已获取集群KubeConfig并通过kubectl工具连接集群。使用限制 请勿将共享GPU调度的节点的CPU Policy设置为 static。cGPU服务的隔离功能不支持以UVM的方式...

创建GPU集群

NVIDIA GPU设备多用于科学计算、图形渲染等场景,为这些计算应用提供加速计算能力。容器服务 Kubernetes 版支持对各种型号的计算型GPU资源进行统一调度和运维管理,能够显著提高GPU集群资源的使用效率。本文介绍如何创建GPU集群及查看节点...

使用自定义镜像创建服务器

在轻量应用服务器创建完成前,请注意不要进行以下操作,否则将导致服务器创建失败:删除对应的自定义镜像。删除自定义镜像来源的快照。对自定义镜像来源的轻量应用服务器执行重置系统或更换镜像。自定义镜像来源的轻量应用服务器被释放。自...

如何通过IIS搭建多个FTP站点(Windows实例)

操作步骤 说明 在创建FTP站点前,需确保实例内已添加IIS及FTP服务。具体操作,请参见 手动搭建FTP站点(Windows)。连接实例。具体信息,请参见 ECS实例连接方式概述。打开IIS管理。在Windows桌面的左下角单击开始图标(),然后找到并...

使用WinSCP连接服务器

前提条件 已下载并安装了WinSCP文件传输工具。具体的下载与安装方式,请参见 WinSCP官网。背景信息 本文将介绍WinSCP连接Linux服务器的两种方式,您可以根据实际情况选择任一方式进行连接。通过密钥对连接服务器 通过用户密码连接服务器 轻...

FTP客户端使用说明

FTP简介 文件传输协议FTP(File Transfer Protocol)是TCP/IP协议组中的协议之一。在开发网站的时候,您可以使用FTP客户端将网站程序或者网页通过FTP协议上传到Web服务器FTP的工作方式分为主动方式(PORT)和被动方式(PASV),工作流程...

管理快照

快照是某一时间点磁盘数据状态的备份文件,常用于日常数据备份、服务器数据误操作恢复、网络攻击恢复、制作自定义镜像等...创建完成的自定义镜像可用于共享到云服务器ECS或者创建相同配置的轻量应用服务器。更多信息,请参见 自定义镜像概述。

GPU实例上部署NGC环境

NGC(NVIDIA GPU CLOUD)是NVIDIA开发的一套深度学习生态系统,方便您免费访问深度学习软件堆栈,建立适合深度学习的开发环境。本文以搭建TensorFlow深度学习框架为例,为您介绍如何在GPU实例上部署NGC环境。背景信息 NGC作为一套深度学习...

重启实例

GPU实例作为云服务器ECS的一类实例规格,保持了与ECS实例相同的管理操作。本文介绍如何通过控制台重启实例。前提条件 待重启的实例必须处于 运行中 状态。背景信息 重启操作是维护云服务器的一种常用方式,如系统更新、重启保存相关配置等...

轻量应用服务器之间的数据迁移

如果轻量应用服务器无法通过升级配置满足当前业务需求或者需要将轻量应用服务器迁移至其他地域,您可以将同一阿里账号待迁移服务器中的网站数据迁移至同地域或者其他地域。本文介绍同地域和跨地域,迁移轻量应用服务器的操作。前提...

自定义镜像概述

创建完成的自定义镜像可用于共享到云服务器ECS或者创建相同配置的轻量应用服务器创建自定义镜像 共享自定义镜像 自定义镜像支持共享到ECS。当轻量应用服务器的配置不能再满足您的业务需要、或者您期望使用云服务器ECS部署业务时,您可以...

GPU实例(计算型和虚拟化型)中安装GRID驱动...

在OpenGL、Direct3D、游戏等图形加速/图形渲染场景,安装了GRID驱动的GPU可有效提高图形渲染效率和性能。本文为您介绍通过助手方式在GPU实例(计算型和虚拟化型)中安装GRID驱动(Windows)的方法。说明 创建GPU实例时会默认预装...

指定GPU规格创建实例

本文介绍如何指定ECS GPU规格创建一个ECI实例。规格说明 GPU规格含有GPU计算卡,适用于深度学习、图像处理等场景。GPU对应的Docker镜像可以直接运行在ECI GPU实例上。实例内已预装NVIDIA显卡设备驱动,不同GPU规格支持安装的驱动和CUDA版本...

GPU虚拟化型实例中安装GRID驱动(Linux)

在AI等通用计算业务场景或者OpenGL、Direct3D、游戏等图形加速场景,安装了GRID驱动的GPU可有效发挥高性能计算能力,或提供更流畅的图形显示效果。本文为您介绍通过助手快速安装GRID驱动的方法。说明 使用助手安装GRID驱动前,建议...

GPU计算型实例中安装Tesla驱动(Windows)

在深度学习、AI等通用计算业务场景,安装了Tesla驱动的GPU才能发挥高性能计算能力。本文为您介绍为Windows系统的GPU计算型实例手动安装Tesla驱动的方法。操作步骤 说明 本文适用于所有Windows系统GPU计算型实例,更多信息,请参见 GPU...

Designer中GPU服务器及对应算法组件下线

Designer中GPU服务器及对应算法组件下线,后续可使用原生版本 停止服务内容 因当前提供服务的V100、P100服务器集群即将过保,PAI将在2024年3月1日正式下线Designer中的TensorFlow(GPU)、MXNet、PyTorch算法组件。您后续可继续使用原生...

重置系统

不支持选择当前服务器创建的自定义镜像。如果您重置系统后,需要恢复原有数据,可以使用重置系统前创建自定义镜像创建新的服务器。当自定义镜像中包含的系统盘容量比待重置系统的服务器中系统盘容量大时,您无法直接使用该自定义镜像重置...

GPU实例上使用RAPIDS加速图像搜索任务

本文以使用RAPIDS加速图像搜索任务为例,介绍如何在预装镜像的GPU实例上使用RAPIDS加速库。前提条件 使用本教程进行操作前,请确保您已经注册了阿里账号。如还未注册,请先完成 账号注册。背景信息 RAPIDS(全称Real-time Acceleration ...

创建容器服务

服务器创建后无法直接更换地域,请谨慎选择。重要 非中国内地地域,例如中国(香港)、新加坡等地域的服务器,提供国际带宽,因此,当您在中国内地访问服务器时,会有较大的网络延迟。因此建议选择和您目标用户所在地域最为接近的地域,...

指定GPU规格创建Pod

本文介绍如何指定ECS GPU规格创建一个ECI Pod,以及如何修改GPU驱动版本。规格说明 GPU规格含有GPU计算卡,适用于深度学习、图像处理等场景。GPU对应的Docker镜像可以直接运行在ECI GPU实例上。实例内已预装NVIDIA显卡设备驱动,不同GPU...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
GPU云服务器 云服务器 ECS 轻量应用服务器 负载均衡 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用