在modelscope-funasr怎么使用服务器int模型?

在modelscope-funasr怎么使用服务器int模型?

modelscope代码下载Qwen/Qwen-VL-Chat-Int4,下载完后大小就2.8M?

"通过modelscope代码下载Qwen/Qwen-VL-Chat-Int4,下载完后大小就2.8MB,咋回事?"

个性化语音合成模型微调

1 课时 |
40 人已学 |
免费

ModelScope社区Library技术架构介绍

1 课时 |
174 人已学 |
免费
开发者课程背景图

modelscope的Qwen1.5-14B-Chat-GPTQ-Int4可以修改接受最大长度吗?

"由于算力有限,24G的显卡,只能跑Qwen1.5-14B-Chat-GPTQ-Int4,但rerank之后的prompt还是比较大,大概有1万个汉字,Qwen1.5-14B-Chat-GPTQ-Int4好像就承受不了,报错了。 modelscope的Qwen1.5-14B-Chat-GPTQ-In...

7b chat做modelscope awq的int4量化,特别容易爆显存,怎么解决?

用swift做对baichuan2 7b chat做modelscope awq的int4量化,特别容易爆显存,怎么解决?

modelscope-funasr导出onnx模型的时候可以设置精度吗?默认我看导出的是int64

modelscope-funasr导出onnx模型的时候可以设置精度吗?默认我看导出的是int64

ModelScope中,使用swift对qwen-7b-chat-int4进行微调,图中报错咋办?

"ModelScope中,使用swift对qwen-7b-chat-int4进行微调的时候图中报错有没有解决方案?"

ModelScope部署的Qwen1.5-110B-Chat-GPTQ-Int4,为啥推理异常慢?

ModelScope部署的Qwen1.5-110B-Chat-GPTQ-Int4,为啥推理异常慢?

ModelScope中,使用qlora微调qwen1.5-14b-chat-int4,报错了?

"ModelScope中,使用qlora微调qwen1.5-14b-chat-int4,报错了,是微调参数和报错吗? CUDA_VISIBLE_DEVICES=2 \swift sft \ --model_id_or_path /root/Qwen1.5-14B-Chat-GPTQ-Int4 \ -...

ModelScope中,只做推理,千问1.5_7b-int4,在p40显卡下能跑吗?

ModelScope中,只做推理,千问1.5_7b-int4,在p40显卡下能跑吗?

ModelScope中,P100是跑不了,p40 不支持int4量化吗?

ModelScope中,P100是跑不了,p40 不支持int4量化吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

相关电子书
更多
视觉AI能力的开放现状及ModelScope实战
ModelScope助力语音AI模型创新与应用
立即下载 立即下载