PAI-TF概述

当您提交PAI-TF作业时,无需担心是否需要提前申请GPU物理主机,PAI-TF所需要的GPU资源随作业的提交动态分配,随作业的结束动态释放。全局计算调度 当您在使用MaxCompute计算引擎时,您可以在一个项目中同时提交SQL作业和PAI-TF作业。...

云速搭部署GPU云服务器

通过云速搭实现GPU云服务器的部署,这里使用 ECS 的 UserData 特性自动安装GPU 驱动、AIACC 等组件,减少配置工作量。涉及产品 专有网络VPC GPU云服务器 弹性公网IP 云速搭CADT 方案架构 操作步骤 具体操作步骤请参考《云速搭部署 GPU ...

什么是GPU云服务器

对比项 GPU云服务器 GPU自建服务器 灵活性 能够快速开通一台或多台GPU云服务器实例。实例规格(vCPU、内存及GPU)支持灵活变更,并且支持在线升降配。带宽升降自由。服务器购买周期长。服务器规格固定,无法灵活变更。带宽一次性购买,无法...

阿里异构计算产品总览

GPU云服务器 GPU云服务器是基于GPU应用的计算服务器GPU在执行复杂的数学和几何计算方面有着独特的优势。特别是浮点运算、并行运算等方面,GPU可以提供上百倍于CPU的计算能力。作为阿里弹性计算家族的一员,GPU云服务器结合了GPU计算力...

产品优势

阿里GPU云服务器具有广阔的覆盖范围、超强的计算能力、出色的网络性能和灵活的购买方式,神行工具包(DeepGPU)是专门为GPU云服务器搭配的具有GPU计算服务增强能力的免费工具集。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的优势。...

API参考

如果您熟悉网络服务协议和一种以上编程语言,推荐您调用API管理您的上资源和开发自己的应用程序。GPU云服务器适用的API和云服务器ECS一致,详情请参见 ECS API简介 和 ECS API概览。

什么是神行工具包(DeepGPU)

神行工具包(DeepGPU)是阿里专门为GPU云服务器搭配的GPU计算服务增强工具集合,旨在帮助开发者在GPU云服务器上更快速地构建企业级服务能力。GPU云服务器搭配神行工具包(DeepGPU)中的组件可以帮助您更方便地利用阿里上GPU资源,...

应用场景

GPU云服务器应用场景 直播实时视频转码 阿里云GPU云服务器重点支持2019年天猫双11狂欢夜直播的实时视频转码,以高画质、低带宽、高分辨率、实时的综合优势服务于天猫双11狂欢夜当天直播业务4K、2K、1080P等各个分辨率的转码。具体说明如下...

GPU集群中加速AI模型训练

本文适用于AI图片的训练场景,使用文件存储CPFS/NAS作为共享存储,使用容器服务Kubernetes版管理GPU云服务器集群实现AI图片的训练加速。方案优势 使用阿里的容器服务ACK可快速搭建AI图片训练基础环境。使用CPFS存储训练数据,支持多个...

使用RAPIDS加速机器学习最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速机器学习环境。使用容器服务Kubernetes版部署RAPIDS加速机器学习环境。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务器 该...

使用RAPIDS加速图像搜索最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速图像搜索环境。使用容器服务Kubernetes版可快速部署图像搜索环境和分发应用。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务...

准实时推理场景

与函数计算同等GPU规格的GPU云服务器单价约为 14元/小时。更多计费详情,请参见 GPU云服务器计费。示例一 假设您的GPU函数一天调用量为3600次,每次为1秒钟,使用4 GB显存规格的GPU实例(模型大小为3 GB左右)。您的日均资源利用率(仅时间...

GPU云服务器计费

GPU云服务器计费相关功能与云服务器ECS一致,本文为您介绍GPU云服务器涉及的计费项、计费方式、续费和退费说明等。计费项及其计费方式 一台GPU实例包括计算资源(vCPU、内存和GPU)、镜像、块存储等资源,其中涉及计费的GPU资源如下表所示...

ACK集群实现GPU AI模型训练

场景描述 本方案适用于AI图片训练场景,使用CPFS和NAS作为共享存储,利用容器服务Kubernetes版管理GPU云服务器集群进行图片AI训练。解决问题 搭建AI图片训练基础环境。使用CPFS存储训练数据。使用飞天AI加速训练工具加速训练。使用Arena一...

准实时推理场景

GPU物理卡的使用上限 默认情况下,无论Tesla系列T4卡型、还是Ampere系列A10卡型的GPU实例,单个阿里账号地域级别的GPU物理卡上限为10卡。如您有更高的物理卡需求,请加入钉钉用户群(钉钉群号:11721331)申请。GPU函数默认情况下地域...

什么是推理引擎DeepGPU-LLM

DeepGPU-LLM是阿里研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。产品简介 DeepGPU-LLM作为阿里开发的一套推理引擎,具有易用性...

ACK集群实现基于弹性计算的AI推理

解决问题 使用GPU云服务器搭建推理环境。使用容器服务Kubernetes版构建推理环境。使用NAS存储模型数据。使用飞天AI加速推理工具加速推理。架构图 参考链接 有关基于弹性计算的AI推理的详情,请参见 基于弹性计算的AI推理。

查看物理机监控数据

在 资源实例监控>物理机 页面上,您可以看到当前环境下物理机的状态。系统会根据当前资源的监控指标,聚合展示实时监控数据和趋势图表。前提条件 您具备查看资源监控的权限。您已经在 资源管理>计算和网络>物理机 中将物理机导入至当前环境...

安装GPU拓扑感知调度组件

前提条件 已创建ACK Pro集群,且集群的实例规格类型选择为 GPU云服务器。更多信息,请参见 创建Kubernetes托管版集群。获取集群KubeConfig并通过kubectl工具连接集群。系统组件版本满足以下要求。组件 版本要求 Kubernetes 1.18.8及以上...

实例规格

本文为您介绍GDB的实例规格。实例规格族 规格族 描述 适用场景 独享规格 完全独享...独享规格的顶配是独占物理机,完全独占一台物理机的所有资源。适用于Gremlin和OpenCypher内核版本。价格 不同实例规格的价格不同,请以实际 购买页面 为准。

directx-device-plugin-windows

在阿里上使用虚拟化GPU云服务器时,directx-device-plugin-windows可以为Windows容器提供基于DirectX构建的GPU加速功能。关于虚拟化GPU云服务器的详细介绍,请参见 GPU虚拟化型。directx-device-plugin-windows仅支持v1.20.4及其以上版本...

回切至本地物理机

说明 当您把复制的物理机上拉起时:如果包含非整数GB的磁盘,我们会自动帮您扩充磁盘大小至整数GB(例如100.3 GB将扩充至101 GB)。如果扩充的是包含系统分区的磁盘,那么扩充的这部分空间会被ECS自动填充给系统分区,这样在恢复到本地...

创建Windows节点池

实例为非GPU云服务器架构。实例规格为4核 8GB及以上。Windows容器在内存使用超出Limitation后并不会执行OOM Killed。自2021年05月起,在v1.16及之后版本的ACK集群,新添加的Windows节点启动时会预留一定的资源(1.5核CPU、2.5 GB RAM、3 GB...

快速搭建AI对话机器人

本文介绍如何使用阿里云GPU云服务器,基于ChatGLM-6B语言模型快速搭建AI对话机器人。背景信息 ChatGLM-6B是一个开源的、支持中英双语对话的语言模型,它基于General Language Model(GLM)架构,具有62亿参数;并使用了和ChatGPT相似的技术...

离线异步任务场景

GPU物理卡的使用上限 GPU物理卡的使用上限,请参见 GPU卡数限制。运行时长 函数计算GPU支持最长86400秒(24小时)的运行时间。搭配异步任务模式,可自由运行或取消正在运行的请求,适合长耗时的AI推理、AI训练、音视频处理和三维重建等场景...

Tesla或GRID驱动安装指引

GPU实例本身并未配备相关驱动,只有安装了驱动的GPU实例,才能实现计算加速或图形渲染等功能。根据不同GPU实例规格安装与之匹配的Tesla或GRID驱动,...如果GPU实例安装驱动后,在使用过程中遇到黑屏或其他问题,请参见 GPU云服务器常见问题。

资源规格推荐

根据物理机规格推荐ECS资源 IDC上云可以帮助您在将线下IDC服务器搬迁上云前,根据您线下的IDC服务器配置信息(包括CPU型号、CPU芯片数、内存大小等),推荐匹配阿里上的ECS资源方案,作为后续搬迁的容量规划参考。登录 ECS管理控制台。在...

新功能发布记录

本文介绍混合云容灾服务每次发布涉及的功能变更及对应的文档,帮助您了解混合云容灾服务的发布动态。2019年10月 功能名称 功能描述 发布时间 相关文档 连续复制型容灾CDR发布3.0.0版本,支持上ECS...2019-07-08 IDC容灾到回切至本地物理机

连续复制型容灾(CDR)支持哪些物理机及虚拟机?

CDR支持x86物理机,VMWare以及KVM上运行的Windows和Linux虚拟服务器

DDH生命周期

物理机风险 稳定状态 DDH处于故障潜伏期,其物理机处于可用状态,但可能导致DDH中的ECS实例出现问题。您可以自主迁移故障潜伏期的DDH到其他物理机,具体操作请参见 迁移有潜在故障风险的DDH。是 故障 稳定状态 DDH出现故障。您可以 提交...

实例规格族

实例规格族 规格族 说明 适用场景 支持的数据库 共享规格 独享被分配的内存和存储资源,与同一物理机上的其他共享规格实例共享CPU资源。通过资源复用换取CPU使用率最大化,性价比较高,享受规模红利。实例有资源争抢风险。追求高性价比,...

迁移有潜在故障风险的DDH

如果一台DDH有潜在故障风险,其物理机处于可用状态,但随时可能出现故障,导致DDH中的ECS实例出现问题。您可以自主迁移有潜在故障风险的DDH到其他物理机,避免相关业务因DDH故障受到影响。前提条件 请先将DDH上的ECS实例全部停机,否则迁移...

实例规格族

与本地盘版相比,盘版不会受物理机上其他实例的影响,性能长期稳定。独占物理机:完全独占一台物理机的所有资源,不存在资源争抢情况。以数据库为核心系统的业务场景,例如金融、电商、政务、大中型互联网业务等。专属型 完全独享虚拟...

使用限制

GPU卡数限制 资源项 资源上限 是否支持调整 在单地域的GPU物理卡卡数 说明 GPU实例包括Tesla系列T4卡型的GPU实例和Ampere系列A10卡型的GPU实例。30卡 支持 GPU实例规格与实例并发度的关系 Tesla系列T4卡型,2 GB显存 当GPU函数实例并发度为...

应用场景

其中FPGA H.265高清编码、720P节省带宽21.6%,GPU云服务器支持高并发实时视频流5000路以上,并逐步上升到峰值6200路每分钟,且顺利度过洪峰。异构GPU云服务器还参与实时家居渲染图片生成等业务,首次提供了大量算力强劲的ebmgn6v裸金属实例...

概述

规格族 描述 适用场景 通用型 独享被分配的内存,与同一物理机上的其他通用型实例共享CPU和存储资源。通过资源复用享受规模红利,性价比较高。存储大小不与CPU和内存绑定,可以灵活选配。对性能稳定性要求较低的应用场景。独享型 具有完全...

安装CUDA

如果您想要在GPU云服务器上进行GPU加速计算任务(例如科学计算或大规模并行计算等),则需要安装CUDA开发运行环境。CUDA提供了一整套工具和库,可以帮助您进行GPU加速的程序开发,以充分发挥NVIDIA GPU的计算潜力,提高计算性能和加速运行...

部署集FAQ

序号为2的组中有一个ECS实例,为ECS3,则此部署集中的实例分布关系如下:ECS1和ECS2可能处于同一台物理机上。ECS1一定不与ECS3处于同一台物理机上。ECS2一定不与ECS3处于同一台物理机上。创建ECS实例时,如果指定了采用“部署集组高可用...

安装共享GPU调度组件

ACK Pro集群的实例规格架构设置为 GPU云服务器。其他配置,请参见 创建ACK集群Pro版。已获取集群KubeConfig并通过kubectl工具连接集群。使用限制 请勿将共享GPU调度的节点的CPU Policy设置为 static。cGPU服务的隔离功能不支持以UVM的方式...

专有通用架构

集群规模大于50台物理机时可采用Apsara Stack Enterprise专有,集群规模大于50台物理机,适合银行、证券等大型金融机构自建专有,建议使用下图所示的架构,部署包括:虚拟化VM、数据库、存储、中间件、大数据等金融产品。Apsara ...
共有110条 < 1 2 3 4 ... 110 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
GPU云服务器 专有宿主机 弹性公网IP 短信服务 人工智能平台 PAI 金融分布式架构
新人特惠 爆款特惠 最新活动 免费试用