modelscope-funasr0.4.4版本进行语音识别,识别的文本有不少断句的错误,怎么优化?

modelscope-funasr0.4.4版本进行语音识别,识别的文本有不少断句的错误,标点符号标错了位置,请问一下怎么优化?

Whisper对于中文语音识别与转写中文文本优化的实践(Python3.10)

Whisper对于中文语音识别与转写中文文本优化的实践(Python3.10)

阿里的FunAsr对Whisper中文领域的转写能力造成了一定的挑战,但实际上,Whisper的使用者完全可以针对中文的语音做一些优化的措施,换句话说,Whisper的“默认”形态可能在中文领域斗不过FunAsr,但是经过中文特殊优化的Whisper就未必了。 中文文本标注优化 Whisper经常被...

达摩院智能语音交互 - 人机对话技术浅析

4 课时 |
100 人已学 |
免费

达摩院智能语音交互 - 声纹识别技术

4 课时 |
2764 人已学 |
免费

阿里巴巴智能语音交互技术与应用

7 课时 |
7096 人已学 |
免费
开发者课程背景图

智能语音交互 ,识别效果 如何优化

用的自训练模型,非常用领域的。只需要识别单个人的讲课内容。在软件上做测试对比,同样一段话实时语音识别效果比录音文件识别效果正确率低很多,这是为什么呢?录音文件识别的效果也不够理想。希望达到的效果进一步提升,需要做声学模型训练么,怎么操作呢,目前有10个小时左右的音频数据。

阿里语音AI的语音识别、语音合成,有没有优化方案?行业专业术语识别和合成效果都不太好

阿里语音AI的语音识别、语音合成,有没有优化方案?行业专业术语识别和合成效果都不太好。或者能否训练定制模型?

智能语音交互、语音AI中只能看到结果,我想听听录入的原声效果如何,看看哪里可以优化下?

问题1:智能语音交互、语音AI中只能看到结果,我想听听录入的原声效果如何,看看哪里可以优化下? 问题2;一看到,试听中会有点滋啦电流声,一般什么原因?对,就是感觉有点杂音,所以才想看看阿里云后台是否有上传的音频,我用api调用试一下

语音识别中声学模型得分计算优化方法

摘要          语音是人们沟通交流最直接、最自然的交互方式。自计算机问世以来,人们就一直希望可以通过语音实现人和计算机之间的交互,而语音识别技术,目标就是通过把人类的语音中的词汇内容转换为相应的文本,架起了人机交...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

智能语音交互
智能语音交互
168+人已加入
加入
相关电子书
更多
复杂声学环境下的语音交互:技术与实践
AI赋能的语音交互解决方案 Link Voice
数据智能时代,语音交互将是第一爆发领域
立即下载 立即下载 立即下载