modelscope-funasr这个websocket接入自己的语音识别应用 怎么大多数没有返回?
modelscope-funasr这个websocket接入自己的语音识别应用 大多数没有返回 偶尔有个别返回 参数是一样的 大概什么原因啊 ?
modelscope-funasr离线中文语音识别C++版本,有对音频的长度做限制吗?
modelscope-funasr离线中文语音识别C++版本,有对音频的长度做限制吗,有时候传长音频,服务没报错就断了
modelscope-funasr中,funasr把语音识别结果返回给Java后端Java要传哪些?
modelscope-funasr中,非实时语音识别,前段传来了文件给Java后端springboot处理,接着springboot传文件给funasr,funasr把语音识别结果返回给Java后端Java需要传哪些参数?
在modelscope-funasr为什么现在的语音识别不返回标点符号了呢?
在modelscope-funasr为什么现在的语音识别不返回标点符号了呢?
modelscope-funasr0.4.4版本进行语音识别,识别的文本有不少断句的错误,怎么优化?
modelscope-funasr0.4.4版本进行语音识别,识别的文本有不少断句的错误,标点符号标错了位置,请问一下怎么优化?
在modelscope-funasr指定语音识别模型的时候2.0.7和2.0.4有啥区别吗?
在modelscope-funasr指定语音识别模型的时候2.0.7和2.0.4有啥区别吗?
modelscope-funasr哪个模型支持离线实时语音识别的呀?
modelscope-funasr哪个模型支持离线实时语音识别的呀?我用这个模型"speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-onnx"识别一个3s的语音需要2s中,不知道有没有更快一点的呢?
在ModelScope-FunASR中,语音识别系统中的声音活动检测
在ModelScope-FunASR中,语音识别系统中的声音活动检测(Voice Activity Detection,VAD)模块负责检测和分离语音信号中的语音和非语音部分,这对于后续的语音识别至关重要。然而,有时VAD可能会将一些本应被视为单一语音段的句子错误地分割成两段,这可能是由于VAD的灵...
modelscope-funasr有没有什么方案可以语音识别之后再送过通用语言模型?
modelscope-funasr有没有什么方案可以语音识别之后再送过通用语言模型?
modelscope-funasr的SeACoParaformer热词语音识别模型现在支持lm了吗?
modelscope-funasr的SeACoParaformer热词语音识别模型现在支持lm了吗?我看代码里面还说的是目前不支持ngram
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
产品推荐
社区圈子