使用RAPIDS加速机器学习最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速机器学习环境。使用容器服务Kubernetes版部署RAPIDS加速机器学习环境。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务器 该...

GPU实例上使用RAPIDS加速图像搜索任务

本文以使用RAPIDS加速图像搜索任务为例,介绍如何在预装镜像的GPU实例上使用RAPIDS加速库。前提条件 使用本教程进行操作前,请确保您已经注册了阿里账号。如还未注册,请先完成 账号注册。背景信息 RAPIDS(全称Real-time Acceleration ...

GPU实例上使用RAPIDS加速机器学习任务

RAPIDS预装镜像已经发布到阿里镜像市场,创建GPU实例时,您可以在镜像市场中搜索 NVIDIA RAPIDS 并使用RAPIDS预装镜像。说明 该RAPIDS预装镜像使用Ubuntu 16.04 64-bit操作系统。NGC(全称NVIDIA GPU CLOUD)是NVIDIA推出的一套深度学习...

卸载GRID驱动

警告 GPU实例必须配备了相关驱动才可以正常使用,如果您因某种原因需要卸载当前驱动,请务必再安装与您实例规格及操作系统相匹配的正确驱动,否则会因GPU实例与安装的驱动不匹配而造成业务无法正常进行的风险。在Windows操作系统中卸载GRID...

通过Docker安装并使用cGPU服务

该服务作为阿里容器服务Kubernetes版ACK(Container Service for Kubernetes)的组件对外提供服务,本文介绍如何通过Docker安装并使用cGPU服务。前提条件 在进行本操作前,请确保GPU实例满足以下要求:GPU实例规格为gn7i、gn6i、gn6v、gn...

安装并使用Deepnccl

Deepnccl是为阿里神龙异构产品开发的用于多GPU互联的AI通信加速库,能够无感地加速基于NCCL通信算子调用的分布式训练或多卡推理等任务。本文主要介绍在Ubuntu或CentOS操作系统的GPU实例上安装和使用Deepnccl的操作方法。前提条件 已创建...

升级Tesla或GRID驱动

升级GRID驱动(Windows)适用实例 仅以下Windows GPU实例规格族支持通过助手升级GRID驱动:Windows系统GPU虚拟化型实例:vgn6i-vws、vgn7i-vws、sgn7i-vws Windows系统GPU计算型实例:gn7i、gn6i、ebmgn7i、ebmgn6i 操作步骤 下文以一台...

GPU计算型实例中安装Tesla驱动(Linux)

在深度学习、AI等通用计算业务场景或者OpenGL、Direct3D、游戏等图形加速场景下,安装了Tesla驱动的GPU才可以发挥高性能计算能力,或提供更流畅的图形显示效果。如果您在创建GPU计算型实例(Linux)时未同时安装Tesla驱动,则需要在创建...

什么是推理引擎DeepGPU-LLM

DeepGPU-LLM是阿里研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。产品简介 DeepGPU-LLM作为阿里开发的一套推理引擎,具有易用性...

使用限制

GPU实例作为云服务器ECS的一类实例规格,保持了与ECS实例相同的使用限制。本文介绍云服务器ECS在产品功能和服务性能上的不同限制,以及如何申请更高配额。限制概述 使用云服务器ECS有下列限制:仅弹性裸金属服务器和超级计算集群支持二次...

【公告】GRID驱动变更通知

尊敬的阿里用户,NVIDIA将于2023年7月31日后不再对FLS GRID License提供技术支持,且阿里采购的FLS GRID License也将于2023年9月底到期,为了您的业务不受GRID驱动变更影响,建议您尽快将目前使用的GPU图形加速驱动(采用FLS GRID ...

命令行使用说明

GPUGPU规格和数量。instance_type:实例规格。参数说明:a:列出您当前阿里账户下所有实例。会提供Key-Owner(密钥对)和instance_id(实例id)两个额外的信息。查询当前Linux账户下的实例:fastgpu ls 查询同一个阿里账号不同Linux...

什么是集群极速部署工具FastGPU

FastGPU介绍 FastGPU作为衔接您的线下人工智能算法和线上阿里海量GPU计算资源的关键一环,方便您将人工智能计算任务构建在阿里的IaaS资源上。使用FastGPU构建人工智能计算任务时,您无需关心IaaS层的计算、存储、网络等资源部署操作,...

使用AIACC-Training TensorFlow版

from tensorflow.keras import backend as K K.set_session(tf.Session(config=config))对于TensorFlow 2.x版本:gpus=tf.config.experimental.list_physical_devices('GPU')for gpu in gpus:tf.config.experimental.set_memory_growth(gpu...

Python SDK使用说明

您可以通过FastGPU提供的Python接口,将FastGPU集成到您的人工智能训练或推理脚本中,从而快速地实现上部署和资源管理。本文为您介绍FastGPU的Python SDK相关使用说明。前提条件 客户端已安装Python 3.6或以上版本。说明 您的ECS实例、...

使用AIACC-Training MXNet版

bin/sh let GPU=OMPI_COMM_WORLD_RANK%OMPI_COMM_WORLD_LOCAL_SIZE export OMP_NUM_THREADS=4 MXNET_VISIBLE_DEVICE=$GPU python train_imagenet.py \-network resnet \-num-layers 50 \-kv-store dist_sync_perseus \-gpus$GPU…执行如下...

使用FastGPU加速AI训练/推理

选用的产品列表 产品名称 说明 GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。对象存储OSS 是一款海量、安全、低成本、高可靠的存储服务,多种存储...

【公告】vgn5i和vgn6i停售通知

尊敬的阿里用户,阿里将于2023年11月1日起停止售卖vgn5i和vgn6i产品,且2024年2月1日后该产品将全面关闭(即存量实例会被强制关机下线),为了您的业务不受产品关闭影响,建议您尽快将目前使用的vgn5i和vgn6i升配为vgn6i-vws、sgn7i-...

安装并使用DeepGPU-LLM

在处理大语言模型任务中,您可以根据实际业务部署情况,选择在不同环境(例如GPU云服务器环境或Docker环境)下安装推理引擎DeepGPU-LLM,然后通过使用DeepGPU-LLM工具实现大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义...

安装和使用AIACC-AGSpeed

AIACC-AGSpeed(简称AGSpeed)专注于优化PyTorch深度学习模型在阿里云GPU异构计算实例上的计算性能,相比原始的神龙AI加速引擎AIACC,可以实现无感的计算优化性能。本文为您介绍安装和使用AGSpeed的方法。前提条件 已创建阿里云GPU实例,且...

搭建Windows环境GRID驱动的License Server

安装GRID驱动,然后添加License服务器并激活License。具体操作,请参见 在GPU实例(计算型和虚拟化型)中安装GRID驱动(Windows)。激活License时,请填写您搭建了License Server的ECS实例公网IP,端口号为7070。前往License Server管理...

什么是计算优化编译器AIACC-AGSpeed

AIACC-AGSpeed(AIACC 2.0-AIACC Graph Speeding)是阿里推出的一个基于PyTorch深度学习框架研发的计算优化编译,用于优化PyTorch深度学习模型在阿里云GPU异构计算实例上的计算性能,相比原始的神龙AI加速引擎AIACC,AIACC-AGSpeed是...

什么是AI分布式训练通信优化库AIACC-ACSpeed

上图中,GPU0~GPU3或者GPU4~GPU7的各卡之间相互通过PCIe Bridge连接(PIX),而GPU0到GPU4~GPU7、GPU1到GPU4~GPU7、GPU2到GPU4~GPU7、GPU3到GPU4~GPU7之间需要通过socket之间的QPI/UPI接口连接(SYS)。优化方法 在原生NCCL通信库中,默认...

搭建Linux环境GRID驱动的License Server

步骤三:安装并运行Apache Tomcat服务器 使用Linux发行版的软件包管理安装所需的Apache Tomcat软件包。sudo apt install tomcat8 安装完成后,运行以下命令,将Tomcat服务设置为开机自启动。sudo systemctl enable tomcat8.service 启动...

AIACC-Training常见问题

本章节汇总了使用AIACC-Training时的常见问题。...启动环节异常慢,查看系统的线程数非常多,有大量omp相关的线程 一般情况下,单GPU分配4个以内的omp线程是合适的,设置 export OMP_NUM_THREADS=4 或者更低可以解决此类问题。

AIACC-ACSpeed体验示例

AIACC-ACSpeed(简称ACSpeed)作为阿里自研的AI训练加速,在提高训练效率的同时能够降低使用成本,可以实现无感的分布式通信性能优化。ACSpeed软件包中已为您提供了适配DDP的示例代码,您可以参考本文快速体验使用ACSpeed进行模型分布...

什么是Deepytorch Training(训练加速)

Deepytorch Training是阿里自研的AI训练加速,为生成式AI和大模型场景提供训练加速功能。本文主要介绍Deepytorch Training在训练加速上的概念、优势及特性。Deepytorch Training介绍 Deepytorch Training面向生成式AI和大模型场景,...

AIACC-ACSpeed性能数据

测试版本 ACSpeed版本:1.0.2 Cuda版本:11.1 torch版本:1.8.1+cu111 实例类型:某8卡GPU实例 训练性能效果 本文以AIACC-ACSpeed(简称ACSpeed)v1.0.2版本在阿里某8卡机器上的多机性能数据为例,通过测试不同场景下的模型,展示ACSpeed...

安装和使用AIACC-ACSpeed

前提条件 已创建阿里云GPU实例,且GPU实例需满足以下要求:操作系统为Alibaba Cloud Linux、CentOS 7.x、Ubuntu 16.04或以上版本。已安装NVIDIA Driver和CUDA 10.0或以上版本。支持的版本列表 AIACC-ACSpeed(本文简称ACSpeed)v1.1.0支持...

安装和使用Deepytorch Training

Deepytorch Training是阿里自研的AI加速,面向生成式AI和大模型场景,提供了显著的训练加速能力。本文主要介绍安装并使用Deepytorch Training的操作方法。前提条件 已创建阿里云GPU实例,且GPU实例需满足以下要求:操作系统为Alibaba ...

什么是AI通信加速库Deepnccl

Deepnccl是为阿里神龙异构产品开发的一种用于多GPU互联的AI通信加速库,在AI分布式训练或多卡推理任务中用于提升通信效率。本文主要介绍Deepnccl的架构、优化原理和性能说明。产品简介 Deepnccl基于NCCL(NVIDIA Collective ...

使用AIACC-Training(AIACC训练加速)加速BERT Fine...

本文适用于自然语言训练场景,例如,通过使用GPU云服务器和极速型NAS训练BERT Finetune模型,同时使用AIACC-Training(AIACC训练加速)进行该模型的训练加速,可有效加快多机多卡的训练速度,提升模型的训练效率和性能。说明 BERT...

使用AIACC-Training PyTorch版

hostfile mpi_host.txt./train.sh 常见问题 模型数据存放位置冲突,导致报错 Input type(CUDAFloatTensor)and weight type(CPUFloatTensor)should be the same 通常情况下,是因为存在模型的参数不在GPU中,而输入数据在GPU中,遗漏了model...

启动方式与环境变量说明

在imagenet训练中使用MomentumSGD(训练优化)时,建议设置为0.9。PERSEUS_NCCL_ENABLE(特殊版本)0:关闭NCCL混合链路支持。1:启用NCCL混合链路支持。默认值为0。当使用SCC机型时,可以启用此feature,在训练时同时使用RDMA链路与VPC...

安装AIACC-Training

前提条件 已创建阿里云GPU实例,且GPU实例需满足以下要求:操作系统为Alibaba Cloud Linux、CentOS 7.x或Ubuntu 16.04以上版本。已安装NVIDIA Driver和CUDA 10.0或以上版本。背景信息 本文以安装AIACC-Training 1.5.0版本为例,您可以根据...

安装和使用Deepytorch Inference

Deepytorch Inference是阿里自研的AI推理加速,针对Torch模型,可提供显著的推理加速能力。本文主要介绍安装并使用Deepytorch Inference的操作方法,以及推理效果展示。背景信息 Deepytorch Inference通过调用 deepytorch_inference....

使用VNC登录实例

无法使用Workbench和第三方远程连接工具(例如PuTTY、Xshell、SecureCRT等)连接实例时,您可以通过VNC远程连接方式登录实例,查看云服务器ECS操作界面的实时状态。重要 自2023年7月10日起,远程连接工具VNC无需单独设置VNC登录密码,即可...

异构服务型

云服务器ECS异构服务型实例video-trans适用于视频转码、图像与视频内容处理以及帧图像提取等场景。通过本文您可以具体了解该实例的特点以及包含的实例规格和指标数据等。video-trans特点 提供专属硬件资源和物理隔离 高密度转码,例如显示...

什么是Deepytorch

Deepytorch是阿里自研的AI加速,为生成式AI和大模型场景提供训练和推理加速功能。在训练方面,Deepytorch在保障精度的前提下实现端到端训练性能的显著提升,可降低训练成本,提升迭代速度。在推理方面,Deepytorch通过即时编译技术对...

什么是Deepytorch Inference(推理加速)

Deepytorch Inference是阿里自研的AI推理加速,专注于为Torch模型提供高性能的推理加速。通过对模型的计算图进行切割、执行层融合以及高性能OP的实现,大幅度提升PyTorch的推理性能。本文介绍Deepytorch Inference在推理加速方面的概念...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
其他人还在搜
云服务器与实体服务器 云服务器租 云哪里的服务器买 专用云服务器 租云服务器多少钱一台 ecs云服务器系统 ipv6云服务器 国内cn2云服务器 欧洲云服务器 云服务器厂家
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
GPU云服务器 云服务器 ECS Web应用防火墙 轻量应用服务器 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用