首页 产业新闻 又一篇,奇富科技智能语音团队论文登上国际顶会INTERSPEECH 2024

又一篇,奇富科技智能语音团队论文登上国际顶会INTERSPEECH 2024

产业新闻 11

    7月10日消息,奇富科技智能语音团队论文《Qifusion-Net:基于特征融合的流式/非流式端到端语音识别框架》(Qifusion-Net: Layer-adapted Stream/Non-stream Model for End-to-End Multi-Accent Speech Recognition)被全球语音与声学顶级会议INTERSPEECH 2024收录。

    这是继去年奇富科技团队《Eden-TTS:一种简单高效的非自回归“端到端可微分”神经网络的语音合成架构》论文之后的又一篇论文被该国际顶会认可。

    资料显示,INTERSPEECH由国际语音通讯协会(International Speech Communication Association, ISCA)创办,是语音处理领域的顶级旗舰国际会议。作为全球最大的综合性语音处理领域的科技盛会,历届INTERSPEECH会议都备受全球各地语音语言领域人士的广泛关注。

    此次被收录的奇富科技智能语音团队论文中Qifusion框架模型具有以下特点:

    1.方言种类更丰富:

    凭借自身在贷后场景及方言领域的丰富数据样本,Qifusion框架模型在原有东北官话、胶辽官话、北京官话、冀鲁官话、中原官话、江淮官话、兰银官话和西南官话等国内八种主流方言的基础上,精准强化了四川、重庆、山东、河南、贵州、广东、吉林、辽宁、黑龙江等用户密集地区的方言识别能力。这使得平均识别准确率相对提升了25%,尤其在川渝地区,方言识别准确率相对提升超35%。

    2.方言识别更精准:

    Qifusion框架模型具备自动识别不同口音的能力,并能在时间维度上对解码结果进行口音信息修正,使方言口音的语音识别误差率降低了30%以上,整体语音识别字错率降低了16%以上,显著提升了用户体验。此外,在业内知名的Kespeech 开源方言数据集性能对比测试中,Qifusion字错率刷新模型最低值,达到国内顶尖水平。

    3.方言识别更高效:

    Qifusion框架采用了创新的层自适应融合结构,能通过共享信息编码模块,更高效的提取方言信息。同时,该框架模型还支持即说即译功能,能在无需知晓额外方言信息的前提下,对不同方言口音的音频进行实时解码,实现精准的识别和转译。这使得Qifusion框架在业务场景中能够迅速准确地捕捉并响应用户需求。

    据悉,奇富科技智能语音团队将受邀参与9月INTERSPEECH 2024科技盛会并发表主题报告,进一步分享其在语音识别领域的创新成果,与全球同行共探语音科技的未来。