B站上,AI孙燕姿翻唱的林俊杰「她说」、周董「爱在西元前」、赵雷「成都」等等,让一众网友深陷无法自拔。「冷门歌手」孙燕姿新晋成为2023年度热门歌手,掀起许多人的追星狂欢。网友表示,「听了一晚上AI孙燕姿,出不去了......」这些翻唱歌曲,是由Eternity丨L、罗斯特_x等UP主通过开源项目自制后并上传。(作者似乎特意在「半岛铁盒」中加入了一秒空白,凑成5分20秒)除了AI孙燕姿,还有AI周杰伦,AI王心凌、AI林志炫...可能许多人做梦也没有想到,2023年华语乐坛竟以这种形式复兴了。前段时间,一位TikTok网友用AI创作了一首「Heart on My Sleeve」很快蹿红网络,引来1000多万人围观。听完这首歌的网友纷纷表示,太让我惊讶了,简直太疯狂!这首歌正是用两位美国流行音乐人Drake和The Weeknd的声音创作而成。先通歌手声音训练AI,然后再用AI来创作。在国内,B站上AI翻唱的华语乐坛歌曲也渐渐成为许多人关注的焦点,孙燕姿、王心凌、周杰伦等明星纷纷「复出」。而最火的莫过于孙燕姿,凭借「天后音色」的称号,直接成为AI新宠儿。然而,对于AI音乐制作,在整个音乐行业并非是一个新事物了。只不过生成式AI的大火,让AI翻唱的门槛再次被拉低。比如,年初,谷歌还曾推出了文本到音乐模型MusicLM,通过将音乐的生成过程视为分层的序列到序列建模任务,并以24 kHz的频率生成高保真的音乐。对于许多歌迷来讲,AI翻唱一定程度上满足了自己的许多遐想。还有一些歌迷,自己训练了已故经典老歌手的AI,包括阿桑、张国荣、姚贝娜、邓丽君等等。这或许是一种数字永生,通过这样一种方式让久违的声音再次回到人们心里。Midjourney出图逼真的超强能力,让人们惊呼画家要失业了。对于AI翻唱,难道歌手也要被去取代吗?一位UP主@阿张Rayzhang用自己的音色训练出的AI唱Killer Queen后,瞬间感觉太恐怖了。紧急录制一个视频后,并附上了「AI歌手会让翻唱区集体失业吗?我被AI版的我爆杀!」标题。有网友称,自己就是AI第一批受害者画手,感觉什么职业也逃不掉。要知道,对于AI翻唱来讲,也需要丰富的特定艺术家音色训练数据,这样AI生成的作品才更加真实。
就目前的技术,虽然歌手的唱腔、技巧和风格等还不能完全模仿,但音色已经基本能完全复刻。AI翻唱火虽火,但由AI创作音乐的另一面,是迫在眉睫的版权问题。AI创作的「Heart on My Sleeve」在TikTok上风靡一时后,完整版被上传到了Apple Music、Spotify、YouTube等平台上。就此,美国歌手Drake对此在Ins表达了不满,「这是(压死骆驼的)最后一根稻草了」。目前,这首歌因为侵权问题已经下架。《金融时报》称,拥有Taylor Swift、Bob Dylan等巨星版权的环球音乐集团,正敦促Spotify和苹果阻止AI工具从其艺术家的版权歌曲中抓取歌词和旋律。但是有些艺术家却不吝啬自己的声音,马斯克前女友Grimes在网上表示,「任何人都可以使用我的声音AI生成歌曲。」不过,还得再付50%的版权。而这次大火的AI翻唱背后的原始项目「so-vits-svc」的作者,据称也是因为太多人滥用,而删除了项目。项目地址:https://github.com/svc-develop-team/so-vits-svc歌声转换模型使用SoftVC内容编码器来提取源音频语音特征,然后将向量直接送入VITS,而不是转换为基于文本的中间格式。因此,音高和音调都可以被保留下来。此外,项目开发者还通过采用NSF HiFiGAN作为声码器(vocoder),从而解决了声音中断的问题。· 特征输入改为Content Vec · 采样率统一使用44100Hz · 由于参数的改变,以及模型结构的精简,推理所需的GPU显存明显减少。 · 增加选项1:vc模式的自动音高预测,这意味着在转换语音时不需要手动输入音高键,男声和女声的音高可以自动转换。但是,这种模式在转换歌曲时,会造成音高偏移。 · 增加选项2:通过k-means聚类方案减少音色泄漏,使音色与目标音色更相似。 · 增加选项3:增加NSF-HIFIGAN增强器,对一些训练集少的模型有一定的音质增强效果,但对训练好的模型有负面影响,所以默认关闭。
预训练模型文件
将checkpoint_best_legacy_500.pt放在hubert目录下。将G_0.pth和D_0.pth放在logs/44k目录下。预处理
利用audio-slicer-GUI或audio-slicer-CLI工具,将原始音频切片至5秒-15秒。长一点也没问题,但太长(比如30秒)可能会在训练甚至预处理时导致「torch.cuda.OutOfMemoryError」,俗称爆显存。2. 自动将数据集分成训练集和验证集,并生成配置文件python preprocess_flist_config.py
python preprocess_hubert_f0.py
完成上述步骤后,dataset目录将包含预处理的数据,dataset_raw文件夹可以被删除。现在,你可以修改生成的config.json中的一些参数——keep_ckpts:在训练中保留最后的keep_ckpts模型。设置为0将保留所有模型,默认是3。all_in_mem:将所有数据集加载到RAM中。当某些平台的磁盘IO太低,而系统内存比你的数据集大得多时,可以启用。训练
python train.py -c configs/config.json -m 44k
推理
模型在需要使用「inference_main.py」。python inference_main.py -m "logs/44k/G_30400.pth" -c "configs/config.json" -s "nen" -n "君の知らない物語-src.wav" -t 0
虽然原始项目组现已停止维护,但有不少网友都进行了fork并且也做了一些更新。项目地址:https://github.com/voicepaw/so-vits-svc-forkAI翻唱之外,许多网友此前曾做了类似的项目,比如「AI-Talk」让马斯克和乔布斯进行了穿越时空的对话。视频中,AI不但模拟了他们的声音,还在一定程度上模拟了其对话思路,使得交流过程十分流畅。AI让我们与逝者的对话成为可能。此前,B站UP主用AI还复活了老奶奶。对于老奶奶的声音制作,直接把过去已有的音频上传,素材基本来自于过去的电话录音、录像视频或者微信语音。并用音频编辑软件AU进行调整,调整的方向主要在降噪、人声增强等等。然后将更加清晰的音频样本切割成若干秒的短句,方便进行标注。最后将处理好的音频打包放入语音合成系统中去。最近沉迷AI「翻唱」,上至AI侃爷唱罚酒,下至苏小玎唱真相是真。但说句正经的,确实还是AI届顶流孙燕姿的翻唱最好听。这几天沉迷B站的AI孙燕姿,刚刚听了一首《一场游戏一场梦》,太好听了,唱到心坎里不少网友听过AI翻唱的歌曲后,感受到AI歌手的可怕之处: