眼爆科技

Facebook的AI,已经可以用比尔盖茨的声音说话

时间:2019-06-12 22:30  编辑:眼爆科技

机器语音系统一直有点令人失望:即使是最好的文本语音转换系统也摆脱不了机械的特性,缺乏人类说话时的基本语调变化。斯蒂芬霍金使用的语音系统就是一个很好的例子。

但近年来,机器学习取得了巨大进步,也改善了机器语音系统的一些缺点。

最近,Facebook 人工智能研究中心的 Sean Vasquez 和 Mike Lewis 发现了一种可以克服从文本到语音系统转换限制,完全由机器生成而且音频片段极其逼真的方法。这一系统被称为MelNet,它不仅可以复制人类的语调,而且可以用与真人相同的声音。于是,研究小组开始训练该系统,让它模仿出比尔盖茨等人的说话。这项工作让人类和电脑之间更真实的互动成为可能,不仅如此,它的逼真程度,很可能引发虚假音频内容骗术的新问题。

图丨比尔盖茨(来源:麻省理工科技评论)

现实中的文本语音转换系统进展缓慢并非是因为缺乏尝试。许多团队一直在尝试训练深度学习算法,利用大型音频数据库重现真实的语音模式。

Vasquez 和 Lewis 说,这种方法的问题在于使用的数据类型。到目前为止,大多数工作都集中在音频波形记录上。这些音频波形显示了声音的振幅如何随时间而变化,它每秒记录的音频包含数万个时间步长。

这些波形能在许多不同的尺度上显示出特定模式。例如,在几秒钟的讲话中,波形反映了与单词序列相关的特征模式。但是在微秒级的片段中,波形显示了与声音的音高和音色相关的特征。在其他尺度上,波形反映了说话人的语调、音素结构等。

另一种方法是将波形在一个时间步长和下一个时间步长之间的关联性考虑进来。所以,在给定的时间范围内,一个单词开头的声音与后面的声音是有关联的。

深度学习系统理应善于学习这些类型的关联性,并对它们进行复制。但问题出在不同时间尺度的关联性上,深度学习系统只能在有限的时间尺度上研究这些关联性。这是因为深度学习使用了一种叫做反向传播的学习过程,这种学习过程不断地重新连接网络,根据所看到的示例改进其性能。

重复率限制了系统学习关联性的时间尺度。因此,深度学习网络可以学习长时间或短时间内音频波形的关联性,但不能同时兼顾两者。这就是为什么它们在复制语音方面表现如此糟糕的原因。

  • 共2页:
  • 上一页
  • 1
  • 2
  • 下一页




  • 上一篇:科技部支持上海建设国家人工智能创新发展试验区 下一篇:中国信通院:未来五年全球AI芯片市场规模将有十倍增长