任务

对于您提交的大多数任务,特别是计算型任务,例如 SQL DML语句、MapReduce,MaxCompute会对其进行解析,得到任务的执行计划。执行计划由具有依赖关系的多个执行阶段(Stage)构成。目前,执行计划在逻辑上可以被看作一个有向图,图中的点是...

产品优势

高可用性 E-HPC集群节点基于云服务器ECS、超级计算集群SCC和GPU云服务器组建,大大提高了集群的可用性。结果可视 E-HPC提供可视化服务功能,您可以通过可视化服务功能将计算结果转换为可读的图形化数据。例如您可以直接观看渲染后的动画...

实例信息

当前规格 分片规格 规格代码 磁盘类型 类型 分片规格 磁盘大小 computer.i2.large 本地盘 计算型 cpu:4核,mem:8GiB 120GiB computer.i2.2xlarge 本地盘 计算型 cpu:8核,mem:16GiB 240GiB storage.i2ne.large 本地盘 存储型 cpu:2核,mem:16...

GPU集群中加速AI模型训练

部署架构图 选用的产品列表 产品名称 说明 GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。容器服务ACK 该服务提供了高性能且可伸缩的容器应用管理...

原生AI套件计费说明

索引 计费说明:计费流程、计费组成、付费方式与计费周期、计费项及定价、计费公式及示例 查看账单明细 欠费说明 计费常见问题 计费流程 计费组成 使用原生AI套件所产生费用=原生AI套件费用+ACK费用+其他产品费用 原生AI套件费用:...

Serverless GPU概述

Serverless GPU是一种新兴的计算GPU服务,它采用了服务器无感知计算的理念,通过提供一种按需分配的GPU计算资源,有效地解决原有GPU长驻使用方式导致的低资源利用率、高使用成本和低弹性能力等痛点问题。本文介绍Serverless GPU的详细...

Serverless GPU概述

Serverless GPU是一种新兴的计算GPU服务,它采用了服务器无感知计算的理念,通过提供一种按需分配的GPU计算资源,有效地解决原有GPU长驻使用方式导致的低资源利用率、高使用成本和低弹性能力等痛点问题。本文介绍Serverless GPU的详细...

GPU云服务器计费

GPU云服务器计费相关功能与云服务器ECS一致,本文为您介绍GPU云服务器涉及的计费项、计费方式、续费和退费说明等。计费项及其计费方式 一台GPU实例包括计算资源(vCPU、内存和GPU)、镜像、块存储等资源,其中涉及计费的GPU资源如下表所示...

使用RAPIDS加速机器学习最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速机器学习环境。使用容器服务Kubernetes版部署RAPIDS加速机器学习环境。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务器 该...

使用RAPIDS加速图像搜索最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速图像搜索环境。使用容器服务Kubernetes版可快速部署图像搜索环境和分发应用。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务...

基本概念

本文汇总使用云服务器ECS过程中涉及的基本概念,方便您查询和了解相关概念。通用概念 概念 说明 ECS实例 上的虚拟计算服务器,内含vCPU、内存、操作系统、网络、磁盘等基础组件。ECS实例规格 定义了ECS实例在计算性能、存储性能、网络...

选择付费方式

付费方式 用户类型 响应速度 每月预估费用 包年包月 密集型计算 分钟级别 24000元 密集存储 小时级别 7500元 按量计费 9000元(复杂度为1,每天运行1次的月价格)包年包月方式下根据您对CPU资源的要求,有如下两种建议:密集型计算:适用...

使用ACK服务实现GPU的成本优化

GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。容器服务ACK 该服务提供了高性能且可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理...

什么是神行工具包(DeepGPU)

神行工具包(DeepGPU)是阿里专门为GPU云服务器搭配的GPU计算服务增强工具集合,旨在帮助开发者在GPU云服务器上更快速地构建企业级服务能力。GPU云服务器搭配神行工具包(DeepGPU)中的组件可以帮助您更方便地利用阿里上GPU资源,...

重启实例

GPU实例作为云服务器ECS的一类实例规格,保持了与ECS实例相同的管理操作。本文介绍如何通过控制台重启实例。前提条件 待重启的实例必须处于 运行中 状态。背景信息 重启操作是维护云服务器的一种常用方式,如系统更新、重启保存相关配置等...

准实时推理场景

与函数计算同等GPU规格的GPU云服务器单价约为 14元/小时。更多计费详情,请参见 GPU云服务器计费。示例一 假设您的GPU函数一天调用量为3600次,每次为1秒钟,使用4 GB显存规格的GPU实例(模型大小为3 GB左右)。您的日均资源利用率(仅时间...

准实时推理场景

与函数计算同等GPU规格的GPU云服务器单价约为 14元/小时。更多计费详情,请参见 GPU云服务器计费。示例一 假设您的GPU函数一天调用量为3600次,每次为1秒钟,使用4 GB显存规格的GPU实例(模型大小为3 GB左右)。您的日均资源利用率(仅时间...

已停售的GPU实例规格

GPU虚拟化型实例规格族vgn6i GPU虚拟化型实例规格族vgn5i GPU计算型超级计算集群实例规格族sccgn6e GPU计算型超级计算集群实例规格族sccgn6 GPU计算型实例规格族gn5 GPU可视化计算型实例规格族ga1 GPU虚拟化型实例规格族vgn6i vgn6i的特点...

主机规格详情

c6 8 16 8 2.5 2 Intel Xeon(Cascade Lake)Platinum 8269CY SQL Server(盘)主机规格 规格族 CPU(核)内存(GB)内网带宽(Gbit/s)存储IOPS(万)盘带宽(Gbit/s)处理型号 mssql.cluster.host.c4xlarge 计算型 c6 16 32 10 4 3 ...

什么是推理引擎DeepGPU-LLM

产品简介 DeepGPU-LLM作为阿里开发的一套推理引擎,具有易用性和广泛适用性,旨在优化大语言模型在GPU云服务器上的推理过程,通过优化和并行计算等技术手段,为您提供免费的高性能、低延迟推理服务。DeepGPU-LLM的关联布局图如下所示:...

使用AIACC-Training(AIACC训练加速)加速BERT Fine...

本文适用于自然语言训练场景,例如,通过使用GPU云服务器和极速NAS训练BERT Finetune模型,同时使用AIACC-Training(AIACC训练加速)进行该模型的训练加速,可有效加快多机多卡的训练速度,提升模型的训练效率和性能。说明 BERT...

使用FastGPU加速AI训练/推理

选用的产品列表 产品名称 说明 GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。对象存储OSS 是一款海量、安全、低成本、高可靠的存储服务,多种存储...

启动实例

GPU实例作为云服务器ECS的一类实例规格,保持了与ECS实例相同的管理操作。本文介绍如何在ECS管理控制台上启动实例。前提条件 实例满足以下条件之一:实例处于 已停止 状态。按量付费实例处于 已过期 状态,您已经结清欠费账单但自动重开机...

云服务使用限制索引

弹性计算 云服务 使用限制 云服务器ECS 使用限制 弹性裸金属服务器 使用限制 FPGA云服务器 使用限制 GPU云服务器 使用限制 存储容量单位包 使用限制 块存储 使用限制 轻量应用服务器 使用限制 专有宿主机 使用限制 批量计算 使用限制 容器...

异构计算产品最佳实践概览

神龙AI加速引擎AIACC 使用AIACC-Training(AIACC训练加速)加速BERT Finetune模型 适用于自然语言训练场景,使用GPU云服务器和极速NAS进行BERT Finetune模型训练,使用AIACC-Training(AIACC训练加速)可以有效提升多机多卡的训练效率。...

基本概念

DeepGPU 阿里专门为GPU云服务器搭配的具有GPU计算服务增强能力的免费工具集合。AIACC-Taining 阿里自研的分布式训练任务AI加速器,可以显著提升训练性能。AIACC-Inference 阿里自研的推理AI加速器,可以显著提升推理性能。AIACC-...

镜像使用说明

为了满足用户在AI应用场景的镜像使用习惯,函数计算 推荐使用镜像交付。AI与大数据领域的镜像尺寸常见于GB级别,函数计算 一方面提高了镜像大小的限制,另一...基础镜像适用于函数计算GPU实例的所有卡,同时按量模式和预留模式也均可使用。

离线异步任务场景

本文介绍什么是GPU离线异步任务场景和如何使用函数计算GPU异步调用、异步有状态调用服务离线AI推理、离线AI训练、离线GPU加速场景,以及如何基于非Web Server模式的Custom Container满足离线GPU应用场景。场景介绍 在离线异步应用场景中,...

释放实例

GPU实例作为云服务器ECS的一类实例规格,保持了与ECS实例相同的管理操作。当您不再需要某个GPU实例提供服务时,您可以释放该实例,以免产生额外的费用,本文主要介绍释放按量付费实例(包括抢占式实例)和已到期的包年包月实例。前提条件 ...

镜像使用说明

为了满足用户在AI应用场景的镜像使用习惯,函数计算 推荐使用镜像交付。AI与大数据领域的镜像尺寸常见于GB级别,函数计算 一方面提高了镜像大小的限制,另一...基础镜像适用于函数计算GPU实例的所有卡,同时按量模式和预留模式也均可使用。

灵骏常见问题

本文为您介绍智能计算灵骏的常见问题。如何创建、删除集群下的节点分组?您有两种方式为灵骏集群创建分组。创建集群时,为集群创建分组。更多信息,请参见 集群和分组配置。创建集群完成后,为已有的集群创建分组。在左侧导航栏,选择 资源...

应用场景

云服务器ECS具有广泛的应用场景,既可以作为Web服务器或者应用服务器单独使用,又可以与其他阿里云服务集成提供丰富的解决方案。说明 云服务器ECS的典型应用场景包括但不限于本文描述,您可以在使用云服务器ECS的同时发现云计算带来的技术...

什么是计算优化编译器AIACC-AGSpeed

AIACC-AGSpeed(AIACC 2.0-AIACC Graph Speeding)是阿里推出的一个基于PyTorch深度学习框架研发的计算优化编译,用于优化PyTorch深度学习模型在阿里云GPU异构计算实例上的计算性能,相比原始的神龙AI加速引擎AIACC,AIACC-AGSpeed是...

sccgn系列实例使用说明及验证

为进一步优化神龙架构GPU服务器的网络性能,阿里推出了GPU计算型超级计算集群实例规格族,即sccgn系列实例,该系列机型具备了超强的计算能力和网络通信能力。本文为您介绍sccgn系列实例的使用说明及性能验证。使用说明 sccgn系列机型同时...

ALB服务器组概述

添加的云服务器需与服务器组所属同一VPC。云服务器作为后端服务,接收来自ALB转发的请求。关于ECS作为后端服务的教程,请参见:快速实现IPv4服务的负载均衡 快速实现IPv6服务的负载均衡 IP类型 该类型服务器组支持添加IP地址作为后端服务。...

ECS实例如何升级GPU驱动

概述 本文主要介绍如何升级ECS实例的GPU驱动。详细信息 阿里提醒您:如果您对实例或数据有修改、变更等风险操作,务必注意实例的容灾、容错能力,确保数据安全。如果您对实例(包括但不限于ECS、RDS)等进行配置与数据...适用于 云服务器ECS

创建高性能计算优化实例

阅读并确认《云服务器ECS服务条款》,单击 确认下单。创建实例一般需要3~5分钟,请您耐心等待。您可前往控制台的实例列表页面查看实例的状态,当实例状态变为 运行中 时,表示实例创建完成。相关文档 创建一台或多台按量付费或者包年包月...

ALB触发器

函数计算 支持 应用负载均衡ALB(Application Load Balancer)作为事件源,即支持将 函数计算 设置为ALB的后端服务。ALB会将请求转发到 函数计算 中的函数,并且同步返回函数调用结果。本文介绍如何配置ALB触发函数执行。前提条件 函数...

上云须知

GPU云服务器 是基于GPU应用的计算服务,多适用于AI深度学习、视频处理、科学计算、图形可视化等应用场景。网络规划 容器集群基础设施(云服务器 ECS)的网络类型选择:专有网络VPC或经典网络。专有网络VPC:推荐使用。采用二层隔离,相对...

人工智能最佳实践

函数计算GPU实例将这些问题从用户侧转移至厂商侧,让您无需关心底层GPU基础设施,完全聚焦于业务本身,极大地简化了业务的实现路径。在不同的应用场景下,函数计算 提供的GPU实例与CPU相比所具备的优势如下。成本优先的AI应用场景 ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
GPU云服务器 轻量应用服务器 云服务器 ECS 阿里邮箱 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用