FAQ

Q1.怎么快速进行标注?...标注工具怎么只有一个?...模型列表里面的模型是所有基于平台训练生成的模型,而模型提取列表里面的模型只是基于本次训练候选模型评估完成后提取的模型。模型列表的模型是所有历次模型提取列表的模型总和。

常见问题

本文主要介绍自学习工具使用过程中的常见问题。...模型列表里面的模型是所有基于平台训练生成的模型,而模型提取列表里面的模型只是基于本次训练候选模型评估完成后提取的模型。模型列表的模型是所有历次模型提取列表的模型总和。

基本概念

DashScope灵积模型服务通过标准化的API提供“模型即服务”(Model-as-a-Service,MaaS)。不同于以往以任务为中心的AI API,DashScope构建在面向未来的、以模型为中心的理念下,因此也引入了一些新的概念和术语。开发者可以通过本文了解...

发布模型至引擎

说明 如果您的模型是首次发布,则无论选择哪种模式,系统均会在对应的引擎中新增该模型。当选择发布模型为 物化视图 时,则仅支持使用 删除重建 模式。独享资源组 选择模型表物化为 E-MapReduce 或 CDH 的物理表时,所使用的独享调度资源组...

2.5D

2.5D组件提供多种2.5D模型,可作为模型容器与其他模型自由组合,搭建水处理、自动化等2.5D场景。本文介绍2.5D组件的详细配置方法。应用示例 如下图所示,使用2.5D组件提示某设备发生告警。步骤一:添加组件 创建Web应用。具体操作,请参见 ...

服务定时自动部署

方案一:使用Designer-更新EAS服务组件 步骤一:创建Designer工作流 如果您的模型是基于Designer工作流训练得到的,可以直接在训练组件下游连接 更新EAS服务 组件,详情请参见 在线模型服务定时自动更新。如果您的模型不是在Designer中训练...

模型说明

在对话文本分类中,我们提供了多种模型进行选择。以下是模型的说明,您可以根据自己的具体场景,选择一个更适合的模型。对话 分类-高性能版:基于自研的HAN架构(双层bilstm+attention)。速度快,计算资源要求低,适合对性能要求高的场景...

CreateModel-创建模型

在API分组的模型管理中创建模型。接口说明 模型定义参考 JSON 架构草案 4 的规范 Json Schema 只支持 Object 类型的元素属性。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以...

模型说明

在商品评价解析中,我们提供了多种模型进行选择。以下是模型的说明,您可以根据自己的具体场景,选择一个更适合的模型。分类-高性能版-CNN 基于CNN实现,训练和预测速度快,精度略低。计算资源要求高,建议训练数据量不要超过10w条。分类-...

模型说明

在双句文本分类中,我们提供了多种模型进行选择。以下是模型的说明,您可以根据自己的具体场景,选择一个更适合的模型。双句分类-高性能版:基于自研的bilstm+cross attention架构。速度快,计算资源要求低,适合对性能要求高的场景。双句...

图像分类训练(torch)

如果您的业务场景涉及图像分类,则可以通过图像分类训练(torch)组件构建图像分类模型,从而进行模型推理。本文为您介绍图像分类训练(torch)组件的配置方法及使用示例。前提条件 已开通OSS并完成授权,详情请参见 开通OSS服务 和 云产品...

图像关键点训练

如果您的业务场景涉及人体相关的关键点检测,则可以通过图像关键点训练组件构建关键点模型,从而进行模型推理。本文为您介绍图像关键点训练组件的配置方法及使用示例。前提条件 已开通OSS并完成授权,详情请参见 开通OSS服务 和 云产品依赖...

数据模型

消息解码器的线程数量 threadPoolQueueSize Integer 网络层发送消息的任务队列大小,Netty 处理网络事件的任务队列大小 RequestOption 参数 类型 说明 queryReceiptTimeoutMs Integer 查询收据的超时时间,单位毫秒 sendRequestTimeoutMs ...

数据模型

消息解码器的线程数量 threadPoolQueueSize Integer 网络层发送消息的任务队列大小,Netty 处理网络事件的任务队列大小 connectionRetryDelayMs Integer 连接重试间隔时间,默认等于0 maxConnectionRetryDelayFactor Integer 连接重试最大...

LLM on DLC-Megatron on DLC最佳实践

预训练大语言模型面对来自于模型规模和数据规模的多重挑战,为了解决这些问题,PAI提供了在 DLC 上使用Megatron-LM进行大语言模型预训练的最佳实践。该实践通过准备镜像环境与训练数据、调整训练策略、提交与管理任务等流程,帮助您在 DLC ...

图像度量学习训练(raw)

如果您的业务场景涉及度量学习,则可以通过图像度量学习训练(raw)组件构建度量学习模型,从而进行模型推理。本文为您介绍图像度量学习训练(raw)组件的配置方法和使用示例。前提条件 已开通OSS并完成授权,详情请参见 开通OSS服务 和 云...

API详情

灵积平台上提供的0.5B模型、1.8B模型、7B模型、14B模型、32B模型和72B模型基于千问开源版本,进行了针对性的推理性能优化,为广大开发者提供便捷的API服务。各个版本均对应魔搭社区开源的各个尺寸的模型版本,详细参考 链接。CodeQwen1.5 ...

API详情

模型服务平台百炼提供的1.8B模型、7B模型、14B模型和72B模型基于千问开源版本,进行了针对性的推理性能优化,为广大开发者提供便捷的API服务。各个版本均对应魔搭社区开源的各个尺寸的模型版本,详细参考 链接。Qwen 通义千问系列模型为...

API详情

模型概览 您可以通过API使用的通义千问系列模型详情如下表所示:模型名称 模型简介 模型输入/输出限制 qwen-turbo 通义千问 超大规模 语言模型,支持中文、英文等不同语言输入。模型支持8k tokens上下文,为了保证正常的使用和输出,API...

API详情

模型概览 您可以通过API使用的通义千问系列模型详情如下表所示:模型名称 模型简介 模型输入/输出限制 qwen-turbo 通义千问 超大规模 语言模型,支持中文、英文等不同语言输入。模型支持8k tokens上下文,为了保证正常的使用和输出,API...

API详情

ChatGLM 说明 支持的领域/任务:aigc 模型概览 模型模型简介 chatglm-6b-v2 该模型为ChatGLM2系列,仅支持prompt格式输入。chatglm3-6b 该模型为ChatGLM3系列,支持输入输出token合计是7500,其中单轮最大输出token为1500,单轮最大输入...

API详情

ChatGLM 说明 支持的领域/任务:aigc 模型概览 模型模型简介 chatglm-6b-v2 该模型为ChatGLM2系列,仅支持prompt格式输入。chatglm3-6b 该模型为ChatGLM3系列,支持输入输出token合计是7500,其中单轮最大输出token为1500,单轮最大输入...

蚂蚁 PaaS 平台核心领域模型介绍

本篇介绍了蚂蚁 PaaS 平台的基本概念与核心领域模型,同时也对阿里云的 IaaS 核心模型进行了阐述,希望对想要初步了解蚂蚁 PaaS 平台技术架构的用户提供入门指引。蚂蚁 PaaS 平台介绍 蚂蚁 PaaS 平台是蚂蚁业务全球化输出的技术支撑平台,...

计费说明

公测期间免费 工业视觉智能模型部署计费标准 由于模型部署后的资源消耗与请求负载有关,而与模型训练复杂度关联较,因此模型部署是独立于基本功能之外的计费项,未来会按照所需的每秒并发请求处理能力(QPS)来进行收费。公测期间免费 ...

能力介绍

服务模型是受管控的。目前,每一个服务模型都是由行业小二在后台制定并发布。ISV在实践过程中可以根据实际情况,向相关小儿提出调整意见。服务模型是有版本的。一个基础服务模型,随着不用ISV、不同场景的需求,会有版本迭代。因此,唯一...

图像检测训练(easycv)

图像检测训练(easycv)组件提供了主流的YOLOX和FCOS检测模型,用于目标检测的训练。若需在图像中标识并框选高风险实体,您可使用该组件构建目标检测模型,并进行推理分析。本文介绍图像检测训练(easycv)组件的配置方法和使用示例。前提...

计量计费

计费单元 模型服务 计费单元 OpenNLU开放域文本理解模型 token 重要 这里token数量指的是大模型使用的tokenizer分词后对应的最小分词单元的数量。在OpenNLU开放域文本理解模型中,单个token平均约对应1.5个汉字,0.7个英文单词。OpenNLU开放...

计量计费

计费单元 模型服务 计费单元 OpenNLU开放域文本理解模型 token 重要 这里token数量指的是大模型使用的tokenizer分词后对应的最小分词单元的数量。在OpenNLU开放域文本理解模型中,单个token平均约对应1.5个汉字,0.7个英文单词。OpenNLU开放...

通用模型导出

您可以使用通用模型导出组件,将在MaxCompute中训练得到的模型导出到指定的OSS路径。本文为您介绍如何使用通用模型导出组件。前提条件 已完成OSS授权,具体操作请参见 云产品依赖与授权:Designer。支持接入的上游组件 常规机器学习组件 ...

时序模型介绍

模型特性 表格存储的时序模型是针对时间序列数据的特点进行设计,适用于物联网设备监控、设备采集数据、机器监控数据等场景。通用的时序数据建模方式,用户无须预定义表结构。支持自动构建时间序列的元数据索引,支持按照多种组合条件检索...

人气模型

人气模型是什么 人气模型属于离线计算的模型淘宝搜索最基础的排序算法模型。人气模型会计算量化出每个商品的静态质量及受欢迎的程度的值,这个值称之为商品人气分。虽然人气模型来自淘宝搜索业务,但其实这个模型对于其他的搜索场景也...

CreateModel-创建模型

模型是模型版本的集合,创建模型时需要指定模型名称,描述等信息。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 授权信息 当前API暂无授权信息透出...

计量计费

计费单元 模型服务 计费单元 通用文本向量 token 重要 这里token数量指的是大模型使用的tokenizer分词后对应的最小分词单元的数量。在通用文本向量模型中,单个token平均约对应1.5个汉字,0.7个英文单词。通用文本向量服务根据模型输出结果...

LLM模型离线推理

LLM模型离线推理组件支持的LLM模型来源于PAI的快速开始中的部分LLM模型,将在线推理转为离线推理。使用限制 仅支持DLC计算引擎。可视化配置参数 您可以在Designer中,通过可视化的方式配置组件参数。页签 参数 是否必选 描述 默认值 字段...

计量计费

计费单元 模型服务 计费单元 通用文本向量 token 重要 这里token数量指的是大模型使用的tokenizer分词后对应的最小分词单元的数量。在通用文本向量模型中,单个token平均约对应1.5个汉字,0.7个英文单词。通用文本向量服务根据模型输出结果...

研发过程代码与平台模型的双向联动

BizWorks双向联动机制概述 模型是对领域知识严格的组织,且有选择的抽象,是浓缩的知识。当然,只有其与实现之间具有紧密联系,才是有用的模型,否则就与代码的注释一样,“糟糕的注释,不如没有注释”。双向联动机制的直接能力就是保持...

API概览

模型是模型版本的集合,创建模型时需要指定模型名称,描述等信息。UpdateModel 更新模型 更新模型的基本配置信息。GetModel 获取模型 获取指定模型详情信息。ListModels 获取模型列表 获取模型列表。DeleteModel 删除模型 删除模型。...

基本概念

模型服务 我的模型 管理所有已开通、已部署的模型,包括模型广场已开通模型及经过训练并完成部署的模型,支持针对模型进行调用、评估、训练。模型广场 在这里您可以根据业务所需挑选通义系列大模型、官方行业或场景大模型、第三方大模型等...

模型测试

模型的测试界面,您可以通过上传文件或文本在平台上进行测试,同时NLP自学习平台也支持通过API和SDK的方式进行模型的调用,具体方法参见API和SDK帮助文档。注意:对话分类模型的输入是JSON格式,请将文本框内替换为符合您数据格式的输入...

工艺模式推荐

(仅工艺模式建模组件的模型 其他参数 参数名 参数描述 是否必填 参数默认值 参数范围 是否加权 推荐结果是否加权 是 否 是 否 OUT端口 参数名 参数描述 是否必填 OUT 输出参数配置可参考模型应用中输出预览的目标变量名称。...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
应用实时监控服务 人工智能平台 PAI 图数据库 表格存储 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用