

我们每天无数次,甚至在没有意识到的情况下,我们的耳朵会接收到音乐和语音。反过来,我们的大脑帮助我们区分夏日流行歌曲和朋友讲故事。现在,一个科学家团队已经绘制了这一过程的工作原理图,这可能为帮助失语症患者恢复说话能力提供新的治疗方案。这些发现详细记录在一项于 5 月 28 日发表在《PLOS Biology》杂志上的研究中。
“尽管音乐和语音在许多方面都不同,从音高到音色再到声音纹理,但我们的研究结果表明,听觉系统使用惊人简单的声学参数来区分音乐和语音,”该研究的合著者、纽约大学认知心理学家 Andrew Chang 在一份声明中说。
测量噪声
科学家们已经掌握了如何使用一个名为赫兹(Hz)的测量单位来衡量音频信号的速率。使用赫兹(Hz)。Hz 数量越多,每秒的出现次数(或周期)就越多。一个人通常以每秒 1.5 到 2 步的速度行走,即 1.5 到 2 Hz。Stevie Wonder 的歌曲《Superstition》大约是 1.6 Hz。相比之下,语音的速度大约是其两到三倍,即 4 到 5 Hz。
[相关:声波是如何工作的?]
一首歌曲随时间的音量——或幅度调制——在 1 到 2 Hz 之间相当稳定。人类语音的幅度调制为 4 到 5 Hz,这意味着其音量会频繁变化。
尽管音乐和语音几乎无时无刻不在我们身边,但科学家们仍然不清楚我们的听觉系统是如何如此轻松、自动地将声音辨别为语音或音乐的。
在嘈杂声中听到声音
在这项研究中,该团队进行了四项实验。超过 300 名参与者听了一系列合成音乐和类似语音的噪声音频片段。这些片段具有不同的幅度、调制速度和规律性。然而,这些音频片段只允许耳朵和大脑检测到音量和速度,并且参与者被告知这些声音是经过噪声掩蔽的音乐或语音。
该团队要求参与者判断这些模糊的噪声片段听起来更像音乐还是语音。然后,他们观察并分析了参与者通过数百个噪声片段判断其为语音还是音乐的模式。据该团队称,这就像“在云中看到人脸”的听觉版本。如果声波中存在某种特征,符合听者对音乐或语音的感知,那么即使是白噪声片段听起来也可能像音乐或语音。
该团队发现,我们的听觉系统使用简单基本的声学参数来区分语音和音乐。对参与者而言,速率较低(小于 2 Hz)且幅度调制更规律的片段听起来像音乐。速率较高(约 4 Hz)且幅度调制更不规律的片段更像有人在说话。
“总的来说,较慢且稳定的纯噪声片段听起来更像音乐,而较快且不规律的片段听起来更像语音,”Chang 说。
未来应用
了解人脑如何区分说话声和音乐声,可能有助于治疗失语症患者。失语症是一种语言障碍,影响着超过一百万美国人。它通常发生在中风或创伤性脑损伤之后,但也可能发生在偏头痛等更短暂的问题期间。
[相关:人类为什么会说话?树栖的猩猩可能藏有答案。]
据该团队称,一种有前景的方法是旋律语调疗法。这种方法通过训练失语症患者唱歌来表达他们想说的话。它利用他们完好的“音乐机制”来绕过受损的言语机制。了解什么使语音和音乐相似和不同,可能有助于设计更有效的康复计划。