
摘要
从视频中学习物体的声音是一项具有挑战性的任务,因为它们通常在一个音频通道中严重重叠。目前用于视觉引导音频源分离的方法通过使用人工混合的视频片段进行训练来规避这一问题,但这对训练数据的收集施加了不切实际的限制,并且可能阻碍对“真实”混合声音特性的学习。我们引入了一种共分离训练范式,该范式允许从未标记的多源视频中学习物体级别的声音。我们的新训练目标要求深度神经网络为外观相似的物体分离出的声音具有一致的可识别性,同时为每个源训练对生成精确的视频级别音频轨道。我们的方法能够在现实测试视频中解耦声音,即使在训练过程中未曾单独观察到某个物体的情况下也是如此。我们在MUSIC、AudioSet和AV-Bench数据集上取得了视觉引导音频源分离和音频降噪的最先进结果。