2018-05-16 19:52 纽约时报
【未来科技范 报道】 5月16日消息, 除了人类本身,还有些声音也在偷偷和这些智能设备说话!
据纽约时报报道,本月,伯克利的一些研究人员发表了一篇研究论文,他们进一步说明他们可以将命令直接将命令嵌入到音乐或者对话文本中。
也就是说,当一个人类听到有人在说话或者有交响乐团在演奏时,Amazon 的 Echo 智能音箱可能会听到一个指令并在你的购物车中加入一些东西。
最近,伯克利研究人员已经通过开源的 Mozilla 的 DeepSpeech「语音-文本」转换软件将命令整合到了语音识别中。
它们可以将命令「嘿,Google,浏览『evil.com』」隐藏到录音中。
而伯克利的研究组也将命令嵌入到了音乐文件中,包括从 Verdi 的「安魂曲」中剪辑出的 4 秒钟的片段。
尽管人工智能正在取得巨大的进步,它仍有可能被欺骗和操纵。
利用像素愚弄计算机视觉已经不是新闻,在路标上贴上小贴纸来迷惑计算机视觉系统,使自动驾驶汽车转向或者加速也见诸于报端。
如今,通过音频攻击,研究者们正在利用人类和机器语音识别之间的差别。
文章写到,「语音识别系统通常将每个声音转译成一个字母,最终将其编译成单词或者短语。通过对音频文件进行细微的改动,研究人员能够删除掉语音识别系统本应该听到的声音,并且将其替换为另一种声音,这种声音将被机器转录为不同的内容,而这种声音是人耳几乎听不见的。」
其实早在 2016 年,加州大学伯克利分校和乔治城大学的一群学生就展示了他们可以将命令隐藏在通过扬声器或者 YouTube 视频播放白噪声中,让智能设备可以打开飞行模式或者打开一个网站。
而在去年,来自于普林斯顿大学和中国浙江大学的研究人员证明,语音识别系统可以通过人耳听不到的频率来激活。这种攻击首先将手机的声音和震动调弱,这样主人就不会听到系统的反应。
这项技术被中国的研究人员称为「Dolphin Attack」,它可以命令智能设备访问恶意网站。
面对这种威胁,设备制造商的反应各不相同,尤其是当它们考虑到平衡安全和易用性时。
据文章透露,对比,Amazon 表示,它们还没有将具体的安全措施披露出来,但是它们确实已经采取了相关的措施来确保 Echo 智能音箱的安全。而谷歌 Google Assistant 具有规避无法探测的音频命令的功能。
这两家公司的智能助手都采用了更高级的语音识别技术,除非它们识别出了用户的声音,否则这些设备不会执行特定的命令。
Apple 公司则表示,其智能音箱 HomePod 在设计过程中已经考虑到了防止类似于打开门锁这样的命令。
其他防护措施还有:在 Siri 执行涉及到敏感数据或者打开应用和网站的命令之前,Iphone 和 Ipad 需要被解锁。
然而,很多人的智能手机并没有上锁,而且至少在目前,语音识别系统是众所周知的容易被欺骗。不过,研究人员仍希望面对各种攻击安全隐患,公司乃至其他人会说,
「好吧,既然这种攻击是可能的,那就让我们试着修复它 吧!」
原标题:除了人类,有些声音也在偷偷和语音助手说话!