[帮助文档] 使用NVIDIA GPU部署AI容器镜像Qwen-7B-Chat

本文聊天机器人为例,介绍如何使用Alibaba Cloud AI Containers(简称AC2)提供的AI容器镜像在NVIDIA GPU上部署通义千问Qwen-7B-Chat。背景信息通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的70亿参数规模模型。Qwen-7B是基于Tra...

[帮助文档] 在GPU实例的Docker环境中配置eRDMA功能实现容器应用程序的直接访问

eRDMA(Elastic Remote Direct Memory Access)是一种高性能网络通信技术,将eRDMA功能引入容器(Docker)环境可以实现容器应用程序绕过操作系统内核直接访问主机的物理eRDMA设备,从而提供更快的数据传输和通信效率,适用于在容器中需要大规模数据传输和高性能网...

[帮助文档] 如何通过自动安装脚本方式部署GPU实例

GPU实例作为云服务器ECS的一类异构实例,保持了与ECS相同的创建方式,同时需要为GPU实例安装相关驱动。本文向您介绍使用CADT通过自动安装脚本的方式创建配备NVIDIA GPU的实例。

[帮助文档] 使用FastGPU部署并训练图像分类、bert-perseus以及手势识别应用

在开发者实验室中,阿里云为您提供了FastGPU训练场景(例如图像分类应用、bert-perseus应用以及手势识别应用)的相关实验教程。您可以通过教程提供的真实环境,通过在线Web IDE、命令行以及步骤式的教程指引,体验并完成所需教程的学习和实验。

云原生 AI 套件中,阿里云的ack服务,部署的代码想要检测宿主机是否有GPU资源,这个有方案么?

云原生 AI 套件中,阿里云的ack服务,部署的代码想要检测宿主机是否有GPU资源,这个有方案么?

AI对话服务在ECS上的部署报告(GPU云服务测评)

AI对话服务在ECS上的部署报告(GPU云服务测评)

报告背景ChatGLM-6B是一种开源的大规模预训练语言模型,具有6200亿参数,可以进行中英文双语对话。它参考了ChatGPT的网络架构和训练方法,通过超大规模语料训练获得强大的语言理解和生成能力。基于ChatGLM-6B model,可以快速构建问答对话机器人。本文以阿里云GPU实例为...

[帮助文档] 如何通过云速搭部署GPU云服务器

通过云速搭实现GPU云服务器的部署,这里使用 ECS 的 UserData 特性自动安装GPU 驱动、AIACC 等组件,减少配置工作量。

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

云服务器ECS
云服务器ECS
做技术先进、性能优异、稳如磐石的弹性计算!
418275+人已加入
加入
相关电子书
更多
端到端GPU性能在深度学学习场景下的应用实践
DeepStream: GPU加速海量视频数据智能处理
阿里巴巴高性能GPU架构与应用
立即下载 立即下载 立即下载