如何选用云服务器

在阿里电子政务上,云服务器有很多不同的规格型号,例如都是4核8G内存的云服务器,在不同应用场景下的性能跑分不同,价格也不同。本文为您介绍阿里云服务的常见参数类别,帮助您根据不同的业务需求选择合适的云服务。云服务器参数...

使用RAPIDS加速机器学习最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速机器学习环境。使用容器服务Kubernetes版部署RAPIDS加速机器学习环境。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务器 该...

应用场景

云服务器ECS具有广泛的应用场景,既可以作为Web服务器或者应用服务器单独使用,又可以与其他阿里云服务集成提供丰富的解决方案。说明 云服务器ECS的典型应用场景包括但不限于本文描述,您可以在使用云服务器ECS的同时发现计算带来的技术...

使用AIACC-Training TensorFlow版

TensorFlow目前进行数据分布式训练的主流方式是Horovod,AIACC-Training 1.5支持使用Horovod API兼容的方式对TensorFlow分布式训练进行加速。本文为您介绍使用AIACC-Training TensorFlow版的具体操作及可能遇到的问题。适配Horovod API 本...

释放实例

GPU实例作为云服务器ECS的一类实例规格,保持了与ECS实例相同的管理操作。当您不再需要某个GPU实例提供服务时,您可以释放该实例,以免产生额外的费用,本文主要介绍释放按量付费实例(包括抢占式实例)和已到期的包年包月实例。前提条件 ...

GPU调度概述

GPU拓扑感知调度 Kubernetes对节点的GPU拓扑信息不感知,调度过程中对GPU的选择比较随机,选择不同的GPU组合训练速度会存在较大的差异。基于以上问题,ACK基于Scheduling Framework机制,实现GPU拓扑感知调度,在节点的GPU组合中选择具有最...

实例命名规则

命名规则 阿里云云服务器ECS提供了多种实例规格族,一种实例规格族又包括多个实例规格。其中,实例规格族名称格式为 ecs.<规格族>,实例规格名称为 ecs.<规格族>.<nx>large。实例具体命名含义如下所示:ecs:云服务器ECS的产品代号。规格...

弹性伸缩概述

背景介绍 弹性伸缩是ACK Serverless上被广泛采用的功能,典型的场景包含在线业务弹性、大规模计算训练、深度学习GPU或共享GPU训练与推理、定时周期性负载变化等。弹性伸缩分为两个维度:调度层弹性,主要是负责修改负载的调度容量变化。...

AIACC-ACSpeed性能数据

测试版本 ACSpeed版本:1.0.2 Cuda版本:11.1 torch版本:1.8.1+cu111 实例类型:某8卡GPU实例 训练性能效果 本文以AIACC-ACSpeed(简称ACSpeed)v1.0.2版本在阿里某8卡机器上的多机性能数据为例,通过测试不同场景下的模型,展示ACSpeed...

GPU监控

请确保您已在云服务器ECS上安装监控插件。具体操作,请参见 安装监控插件。监控项说明 您可以从GPU、实例和应用分组维度查看GPU相关监控项。GPU的监控项如下表所示。监控项 单位 MetricName Dimensions(Agent)GPU维度解码器使用率%...

异构服务型

云服务器ECS异构服务型实例video-trans适用于视频转码、图像与视频内容处理以及帧图像提取等场景。通过本文您可以具体了解该实例的特点以及包含的实例规格和指标数据等。video-trans特点 提供专属硬件资源和物理隔离 高密度转码,例如显示...

产品计费

FPGA云服务器计费相关功能和云服务器ECS一致,本文为您介绍FPGA云服务器的计费信息。计费项及其计费方式 一台FPGA实例包括计算资源(vCPU、内存和GPU)、镜像、块存储等资源,其中涉及计费的FPGA资源如下表所示。计费项 计费说明 计费方式 ...

图像关键点训练

1 执行调优 优化方法 是 模型训练的优化方法,支持以下取值:SGD Adam SGD 每个GPU读取训练数据的进程数 否 每个GPU读取训练数据的进程数量。2 evtorch model 开启半精度 否 选中该参数,表示使用半精度进行模型训练,用来降低内存占用。无...

图像分类训练(torch)

如果您的业务场景涉及图像分类,则可以通过图像分类训练(torch)组件构建图像分类模型,从而进行模型推理。本文为您介绍图像分类训练(torch)组件的配置方法及使用示例。前提条件 已开通OSS并完成授权,详情请参见 开通OSS服务 和 产品...

使用原生AI监控大盘

节点监控大盘有以下可供您查看的指标:GPU Node Details:以表格的形式展示集群节点的相关信息,包括:节点名称(Name)节点在集群中的IP(IP)节点在集群中的角色(Role)节点的状态(Status)GPU模式:独占或共享(GPU Mode)节点拥有GPU...

ECS实例如何升级GPU驱动

概述 本文主要介绍如何升级ECS实例的GPU驱动。详细信息 阿里提醒您:如果您对实例或数据有修改、变更等风险操作,务必注意实例的容灾、容错能力,确保数据安全。如果您对实例(包括但不限于ECS、RDS)等进行配置与数据...适用于 云服务器ECS

产品范围

专属区域可以支持的产品范围 专属区域支持的产品范围 IaaS产品:云服务器 ECS、弹性裸金属服务器 EBM、GPU 云服务器、FPGA 云服务器、Alibaba Cloud Linux、容器服务 ACK、容器镜像服务 ACR、块存储 EBS、对象存储 OSS、文件存储 NAS、...

分布式通信框架gRPC+

警告 公共云GPU服务器即将过保下线,您可以继续提交CPU版本的TensorFlow任务。如需使用GPU进行模型训练,请前往DLC提交任务,具体操作请参见 创建训练任务。开启gRPC+分布式训练 使用gRPC+进行分布式训练,需要在 tf.train.Server 中添加 ...

什么是弹性加速计算实例EAIS

弹性加速计算实例EAIS(Elastic Accelerated Computing Instances)是一款阿里提供的性能卓越、成本优化、弹性扩展的IaaS(Infrastructure as a Service)级别弹性计算服务。EAIS可以将CPU资源与GPU资源成功解耦,帮助您将GPU资源附加到...

ACK集群实现基于弹性计算的AI推理

解决问题 使用GPU云服务器搭建推理环境。使用容器服务Kubernetes版构建推理环境。使用NAS存储模型数据。使用飞天AI加速推理工具加速推理。架构图 参考链接 有关基于弹性计算的AI推理的详情,请参见 基于弹性计算的AI推理。

GPU实例上配置eRDMA

弹性网卡(Elastic Network Interfaces,简称ENI)是专有网络VPC中的虚拟网络接口,用于连接云服务器与专有网络。更多信息,请参见 弹性网卡概述。弹性RDMA(Elastic Remote Direct Memory Access,简称eRDMA)是阿里提供的低延迟、大...

分布式训练框架StarServer

警告 公共云GPU服务器即将过保下线,您可以继续提交CPU版本的TensorFlow任务。如需使用GPU进行模型训练,请前往DLC提交任务,具体操作请参见 创建训练任务。开启StarServer分布式训练 使用StarServer进行分布式训练,需要在 tf.train....

AdagradDecay Optimizer

警告 公共云GPU服务器即将过保下线,您可以继续提交CPU版本的TensorFlow任务。如需使用GPU进行模型训练,请前往DLC提交任务,具体操作请参见 创建训练任务。背景信息 超大规模模型的训练样本通常在10亿规模以上,且持续增量训练时间在...

PAI-TF日志查看方式

警告 公共云GPU服务器即将过保下线,您可以继续提交CPU版本的TensorFlow任务。如需使用GPU进行模型训练,请前往DLC提交任务,具体操作请参见 创建训练任务。无论以何种方式提交PAI-TF任务,都可以得到如下图所示的日志。序号 描述 ① 该...

创建及管理数据集加速槽

在使用数据集加速(DatasetAccelerator)进行训练数据加速前,您需要创建数据集加速槽来绑定数据源的存储地址。系统会根据数据源类型、数据大小、训练的框架以及模型等因素,对关联的数据集数据进行预处理,以提高对数据集数据的访问速度...

使用ACK服务实现GPU的成本优化

GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。容器服务ACK 该服务提供了高性能且可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理...

神行工具包(DeepGPU)计费

使用神行工具包(DeepGPU)本身不需要额外支付费用,您只需要为执行计算任务过程中使用的阿里资源(例如云服务器ECS或文件存储NAS)进行付费。神行工具包中的组件主要包括 AI训练加速器Deepytorch Training、AI推理加速器Deepytorch ...

使用FastGPU加速AI训练/推理

选用的产品列表 产品名称 说明 GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。对象存储OSS 是一款海量、安全、低成本、高可靠的存储服务,多种存储...

产品优势

使用EAIS实例:您只需要购买如下计算资源:产品 实例规格 指标数据 云服务器ECS ecs.r6.6xlarge 24 vCPU 192 GiB 弹性计算加速实例EAIS eais.ei-a6.4xlarge 16 TFLOPS/FP32,32 GB/显存 综上所述,如果您购买GPU实例,则只能在已有的固定...

PAI-TF超参支持

警告 公共云GPU服务器即将过保下线,您可以继续提交CPU版本的TensorFlow任务。如需使用GPU进行模型训练,请前往DLC提交任务,具体操作请参见 创建训练任务。超参文件 您可以通过一个本地文件配置相应的超参信息,格式如下。batch_size=10 ...

快速搭建AI对话机器人

本文介绍如何使用阿里云GPU云服务器,基于ChatGLM-6B语言模型快速搭建AI对话机器人。背景信息 ChatGLM-6B是一个开源的、支持中英双语对话的语言模型,它基于General Language Model(GLM)架构,具有62亿参数;并使用了和ChatGPT相似的技术...

原生AI套件管理员运维指南

节点监控大盘可供您查看以下指标:GPU Node Details:以表格的形式展示集群节点的相关信息,包括:节点名称(Name)、节点在集群中的IP(IP)、节点在集群中的角色(Role)、节点的状态(Status)、GPU模式:独占或共享(GPU Mode)、节点...

GPU计算型

主售(推荐类型)GPU计算型实例规格族gn7e GPU计算型实例规格族gn7i GPU计算型实例...服务器实例规格族ebmgn7ex GPU计算型弹性裸金属服务器实例规格族ebmgn7e GPU计算型弹性裸金属服务器实例规格族ebmgn7ix GPU计算型弹性裸金属服务器实例规格...

PAI-TF任务参数介绍

警告 公共云GPU服务器即将过保下线,您可以继续提交CPU版本的TensorFlow任务。如需使用GPU进行模型训练,请前往DLC提交任务,具体操作请参见 创建训练任务。PAI-TF命令参数 您可以在 Designer 的SQL节点、DataWorks SQL节点及MaxCompute的...

什么是GPU容器共享技术cGPU

GPU容器共享技术cGPU是阿里基于内核虚拟GPU隔离的容器共享技术。即多个容器共享一张GPU卡,从而实现业务的安全隔离,提高GPU硬件资源的利用率并降低使用成本。为什么选择cGPU 兼容性好 不仅适配标准的Docker和Containerd工作方式,而且还...

安装GPU拓扑感知调度组件

前提条件 已创建ACK Pro集群,且集群的实例规格类型选择为 GPU云服务器。更多信息,请参见 创建Kubernetes托管版集群。获取集群KubeConfig并通过kubectl工具连接集群。系统组件版本满足以下要求。组件 版本要求 Kubernetes 1.18.8及以上...

Arena在多用户场景下的最佳实践

arena data list 预期输出:执行以下命令提交一个需要1张GPU卡的训练作业。arena submit tf \-name=tf-git-bob-01 \-gpus=1 \-image=tensorflow/tensorflow:1.5.0-devel-gpu \-sync-mode=git \-sync-source=...

WorkQueue

警告 公共云GPU服务器即将过保下线,您可以继续提交CPU版本的TensorFlow任务。如需使用GPU进行模型训练,请前往DLC提交任务,具体操作请参见 创建训练任务。背景信息 在大规模分布式异步训练中,如果每个Worker读取相同数量的样本,则慢...

快速构建主机监控能力

步骤一:安装监控插件 当您在云服务器ECS控制台上创建阿里主机(ECS实例)后,在监控控制台的 主机监控 列表中会显示该主机,您需要为其安装监控插件,才能对其进行监控。登录 监控控制台。在左侧导航栏,选择 资源监控>主机...

部署及微调Llama-3系列模型

end_header_id|>+output+<|eot_id|>单击 训练,PAI-QuickStart自动跳转到模型训练页面,并开始进行训练,您可以查看训练任务状态和训练日志。如果需要将微调训练完的模型部署为在线服务,可以在同一页面的模型部署卡片中选择资源组,然后...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
弹性公网IP 共享流量包 高速通道 NAT网关 负载均衡 短信服务
新人特惠 爆款特惠 最新活动 免费试用