想象一下:你在办公室工作,戴着降噪耳机来抑制周围的喋喋不休。一位同事来到您的办公桌前并提出了一个问题,但您无需摘下耳机并说“什么”,而是清楚地听到了问题。
由华盛顿大学研究人员领导的一个团队创建了一个耳机原型,允许听众创建这样一个 “声音气泡”。该团队的人工智能算法与耳机原型相结合,使佩戴者能够听到人们在可编程半径为 3 到 6 英尺的气泡内说话。
气泡外的声音平均安静 49 分贝(大约是真空和沙沙作响的树叶之间的差异),即使远处的声音比气泡内的声音大。
该团队在《自然电子学》上发表了他们的发现。概念验证设备的代码可供其他人使用。研究人员正在创建一家初创公司,将这项技术商业化。
“人类并不擅长通过声音感知距离,尤其是当他们周围有多个声源时,”资深作者、华盛顿大学 Paul G. Allen 计算机科学与工程学院教授 Shyam Gollakota 说。
“在嘈杂的餐厅等地方,我们关注附近人的能力可能会受到限制,因此到目前为止,在耳戴式设备上创建声音气泡是不可能的。我们的 AI 系统实际上可以学习房间中每个声源的距离,并在 8 毫秒内在助听器本身上实时处理。
研究人员使用市售的降噪耳机创建了原型。他们在头带上贴了六个小麦克风。该团队的神经网络在连接到耳机的小型板载嵌入式计算机上运行,可跟踪不同声音何时到达每个麦克风。
然后,系统会抑制来自气泡外部的声音,同时播放并略微放大气泡内部的声音(因为降噪耳机会让一些声音通过)。
“我们之前使用过一个智能扬声器系统,将麦克风分散在桌子上,因为我们认为麦克风之间需要很长的距离才能提取有关声音的距离信息,”Gollakota 说。
“但后来我们开始质疑我们的假设。我们需要一个大的分离来创造这个 “声音气泡” 吗?我们在这里表明的是,我们没有。我们能够只用耳机上的麦克风实时完成,这真是令人惊讶。
为了训练系统在不同环境中创建气泡,研究人员需要一个在现实世界中收集的基于距离的声音数据集,而该数据集不可用。为了收集这样的数据集,他们将耳机戴在人体模型头上。
机器人平台旋转头部,同时移动的扬声器播放来自不同距离的噪音。该团队使用人体模型系统以及 22 个不同室内环境(包括办公室和生活空间)中的人类用户收集数据。
研究人员已经确定该系统有效有几个原因。首先,佩戴者的头部会反射声音,这有助于神经网络区分来自不同距离的声音。其次,声音(如人类语音)具有多个频率,每个频率在从源头传播时都会经历不同的阶段。
研究人员认为,该团队的 AI 算法正在比较每个频率的相位,以确定任何声源(例如,一个人在说话)的距离。
像 Apple 的 AirPods Pro 2 这样的耳机可以放大佩戴者面前人的声音,同时减少一些背景噪音。但这些功能的工作原理是跟踪头部位置并放大来自特定方向的声音,而不是测量距离。这意味着耳机无法同时放大多个扬声器,如果佩戴者将头从目标扬声器上移开,耳机就会失去功能,并且在减少来自扬声器方向的响亮声音方面效果不佳。
该系统已经过训练,只能在室内工作,因为在室外更难获得干净的培训音频。接下来,该团队正在努力使该技术在助听器和降噪耳塞上发挥作用,这需要一种新的麦克风定位策略。
关注+星标“硅基LIFE”,每日获取关于人工智能、芯片领域最新动态。 加微信fusion9000,进“硅基LIFE”粉丝交流群交流并接收实时滚动推送的最新信息