为促进驾驶场景中语音处理和识别研究,在ISCSLP 2022上成功举办智能驾驶座舱语音识别挑战 (ICSRC)的基础上,西工大音频语音与语言处理研究组 (ASLP@NPU)联合理想汽车、希尔贝壳、WeNet社区、字节、微软、天津大学、南洋理工大学以及中国信息通信研究院等多家单位在ICASSP2024上推出了车载多通道语音识别挑战赛(ICMC-ASR)。作为大会的旗舰赛事之一,ICMC-ASR发布了在新能源汽车内录制的100多小时多通道语音数据(单通道计算)以及用于数据增广的40小时噪声数据。挑战赛设有语音识别 (ASR)和语音分离和识别 (ASDR)两个赛道,分别使用字符错误率 (CER)和连接最小排列字符错误率 (cpCER)作为评价指标。 本次挑战赛吸引了国内外共计98支队伍参赛,并在两个赛道上收到了53个有效提交结果。竞赛总结论文“ICMC-ASR: The ICASSP 2024 In-Car Multi-Channel Automatic Speech Recognition Challenge”已被语音研究顶级会议ICASSP2024接收。现对该论文进行分享,包括竞赛举办的背景、所采用的数据集、赛道设置、比赛结果和各参赛队伍所采用的关键技术等。
赛事网址:https://icmcasr.org/
论文题目:ICMC-ASR: The ICASSP 2024 In-Car Multi-Channel Automatic Speech Recognition Challenge
合作单位:理想、希尔贝壳、WeNet社区、字节、微软、天津大学、南洋理工大学、中国信息通信研究院
作者列表:王贺、郭鹏程、李越、张奥、孙佳耀、谢磊、陈伟、周盼、卜辉、徐昕、张彬彬、陈卓、巫健、王龙标、Eng Siong Chng、李荪
论文原文:https://arxiv.org/abs/2401.03473
相关链接:NPU-ASLP实验室10篇论文被ICASSP2024录用
发表论文截图
语音交互已经变成车机系统不可或缺的组成部分。不同于智能家居或者会议等常见语音识别 (ASR)系统部署的场景,密闭且不规则的驾驶舱的声学环境是相对更加复杂的。此外,在驾驶过程中存在着各种噪声,如风声、引擎声、轮胎声、车载广播和音乐、多人交谈等。因此,如何利用语音处理和识别领域的最新技术来提高汽车ASR系统的鲁棒性是一个值得研究的重要问题。
在2022年,我们举办了智能驾驶舱语音识别挑战 (ICSRC)[1],并发布了一个在新能源汽车中收集的20小时单通道评估集,为车载ASR提供了一个公开评测的平台。然而,在车载ASR系统的基准测试中仍然缺乏较大规模的实录数据。为了填补这一空白,我们在ICSRC成功举办的基础上推出了ICASSP 2024车载多通道自动语音识别 (ICMC-ASR)挑战赛,专注于复杂驾驶条件下的语音处理和识别。此外,ICMC-ASR数据集包括了一个超过100小时的车内实录多通道、多说话人的普通话对话数据和40小时的汽车内录制的多通道噪声音频(时长均以单通道计算)。ICMC-ASR挑战赛包括语音识别和语音分离与识别 (ASDR)两个赛道,针对车内多说话人聊天场景,分别使用字错误率 (CER)和连接最小排列字符错误率 (cpCER)作为评估指标。最终,ICMC-ASR挑战吸引了国内外98支团队参赛,并在两个赛道中收到了53个有效结果。其中,USTC-iflytek团队在ASR赛道上13.16%的CER和ASDR赛道上21.48%的cpCER获得双赛道冠军,相较于基线系统有显著提升。
数据集
表1 ICMC-ASR数据集的统计信息,包括近场音频的时长 (Duration)、会话数 (Session)、是否提供真实说话人日志 (GT SD)、转录文本 (Transcription) 以及近场音频 (Near-field)。
赛道设置
Track1 — 语音识别 (Automatic Speech Recognition, ASR):在此赛道中,参赛者会得到测试集上的真实时间戳信息。该赛道的主要目标是构建基于多通道多说话人语音数据的鲁棒ASR系统。参赛者需要设计并构建能够有效融合不同通道信息、抑制噪声、处理多说话人重叠的系统。对于此赛道,ASR系统的准确性将通过字错误率(CER)来衡量。
Track2 — 语音日志与识别 (Automatic Speech Diarization and Recognition, ASDR):与Track1不同,Track2在评估过程中不提供任何关于说话人和时间戳的先验信息,包括每个语句的分割和说话人标签以及每个会话中的总说话人数等。此赛道的参赛者需要设计一个既可以获取说话人日志又可以进行语音转录的系统。对于此赛道,我们采用连接最小排列字错误率 (cpCER) 作为ASDR系统的度量标准。
竞赛结果及讨论
基线系统:https://github.com/MrSupW/ICMC-ASR_Baseline
竞赛官方网站:https://icmcasr.org/
表2 两个赛道的Top系统和竞基线系统所使用的主要技术和结果。语音前端和ASR在两个赛道中都被应用,而说话人日志技术仅用于Track2。加粗的团队受邀提交ICASSP 2024的技术报告论文。
语音前端 大多数团队都在语音前端方面沿用了基线系统中使用的声学回声消除 (AEC)和独立矢量分析 (IVA)技术。基于此,一些团队整合了用于去混响的加权预测误差 (WPE)和分离说话人语音的引导源分离 (GSS)技术,例如RoyalFlush团队、FawAISpeech团队和HLT2023-NUS团队。此外,许多参赛团队也使用了基于神经网络 (NN)的语音前端降噪模型,包括MP-SENet [3]、DCCRN-VAE [8]和DEEP-FSMN [5]。特别地,USTCiflytek团队在GSS中使用能量和相位差异代替传统的最大信号噪声比 (SNR)标准进行通道选择,同时在波束形成器中使用递归平滑技术评估功率谱密度矩阵,为下游ASR提供了更高质量的单通道音频。
ASR Backbone 根据ICMC-ASR挑战赛不允许使用额外文本数据的规则,许多团队选择使用开源音频数据训练自监督学习 (SSL)模型来生成音频特征,然后将其输入主流ASR模型进行训练。HuBERT [4] SSL模型是最受欢迎的模型之一,在分析讨论的7支团队中,有4支均使用了HuBERT模型。其余的三支队伍,Nanjing Longyuan团队使用了Data2vec2 [6]作为SSL模型,并在训练过程中引入了噪声增广技术;USTC-iflytek团队对未标记数据迭代生成伪标签,并提出了针对口音优化的Accent-ASR模型;FawAISpeech团队提出了基于E-Branchformer和交叉注意力[12]的多通道ASR模型,没有使用SSL模型。
说话人日志 除Fosafer Research和Nanjing Longyuan团队,大多数团队使用基于神经网络的VAD模型,在说话人日志技术上选择了TS-VAD [13]并基于此进行改进。具体地,USTC-iflytek团队将TS-VAD模型扩展到多通道音频,提出并使用了Multi-Channel TS-VAD [2];RoyalFlush团队、喜马拉雅语音团队和HLT2023-NUS团队采用了类似的方法,使用不同的基于神经网络的模型提取说话人表征,取代了传统TS-VAD中所使用的i-vector特征。
本赛事相关数据后续会开源,敬请关注。
参考文献
[1] Ao Zhang, Fan Yu, Kaixun Huang, Lei Xie, et al., “The ISCSLP 2022 Intelligent Cockpit Speech Recognition Challenge (ICSRC): Dataset, Tracks, Baseline and Results,” in Proc. ISCSLP. IEEE, 2022, pp. 507–511.
[2] Ruoyu Wang, Maokui He, Jun Du, Hengshun Zhou, et al., “The USTC-Nercslip Systems for the CHiME-7 DASR Challenge,” 2023.
[3] Ye-Xin Lu, Yang Ai, and Zhen-Hua Ling, “MP-SENet: A Speech Enhancement Model with Parallel Denoising of Magnitude and Phase Spectra,” 2023.
[4] Wei-Ning Hsu, Benjamin Bolte, Yao-Hung Hubert Tsai, et al., “Hubert: Self-Supervised Speech Representation Learning by Masked Prediction of Hidden Units,” IEEE/ACM TASLP, vol. 29, pp. 3451–3460, 2021.
[5] Shiliang Zhang, Ming Lei, Zhijie Yan, et al., “Deep-FSMN for Large Vocabulary Continuous Speech Recognition,” in Proc. ICASSP, 2018, pp. 5869–5873.
[6] Alexei Baevski, Arun Babu, Wei-Ning Hsu, and Michael Auli, “Efficient Self-Supervised Learning with Contextualized Target Representations for Vision, Speech and Language,” in Proc. ICML. PMLR, 2023, pp. 1416–1429.
[7] Brecht Desplanques, Jenthe Thienpondt, and Kris Demuynck, “ECAPA-TDNN: Emphasized Channel Attention, Propagation and Aggregation in TDNN based Speaker Verification,” in Proc. Interspeech. 2020, pp. 3830–3834, ISCA.
[8] Yang Xiang, Jingguang Tian, Xinhui Hu, et al., “A Deep Representation Learning-based Speech Enhancement Method using Complex Convolution Recurrent Variational Autoencoder,” arXiv preprint arXiv:2312.09620, 2023.
[9] Jingguang Tian, Xinhui Hu, and Xinkang Xu, “Royalflush Speaker Diarization System for ICASSP 2022 Multi-Channel Multi-Party Meeting Transcription Challenge,” arXiv preprint arXiv:2202.04814, 2022.
[10] Hui Wang, Siqi Zheng, Yafeng Chen, Luyao Cheng, and Qian Chen, “CAM++: A Fast and Efficient Network for Speaker Verification using Contextaware Masking,” arXiv preprint arXiv:2303.00332, 2023.
[11] Zhuoyuan Yao, Di Wu, Xiong Wang, et al., “WeNet: Production Oriented Streaming and Non-streaming End-to-End Speech Recognition Toolkit,” 2021.
[12] Pengcheng Guo, He Wang, Bingshen Mu, Ao Zhang, and Peikun Chen, “The NPU-ASLP System for Audio-Visual Speech Recognition in MISP 2022 Challenge,” in Proc. ICASSP. IEEE, 2023, pp. 1–2.
[13] Ivan Medennikov, Maxim Korenevsky, Tatiana Prisyach, Yuri Khokhlov, et al., “Target-Speaker Voice Activity Detection: A Novel Approach for Multispeaker Diarization in A Dinner Party Scenario,” pp. 274–278, 2020.
欢迎关注ASLP实验室微信公众号,获取更多语音研究相关资讯!
“打造最开放、最前沿、最落地的人工智能实验室”