近日,加利福尼亚大学伯克利分校和乔治城大学的学生合作进行了一项研究,成功用某种秘密指令操纵了智能语音助手。这不禁让人心生警惕。

该团队将一种人类听不到的秘密指令嵌入到一段普通的音频文件中,例如说唱片或白噪音。在人们听音乐或听语音信息时,他们听不出其中有什么特别,但是Siri或Alexa等智能语音助手可能会听到秘密指令,往购物车里加东西。该团队研究还表示,这个秘密指令也可以启动其他应用,比如把设备调到飞行模式,或者打开某个网页。

打开网易新闻 查看精彩图片

加州大学伯克利分校的博士生Nicholas Carlini以及该研究论文的另一名联合发布作者说到:“我们想说的是,存在这种可能性,也希望其他人认为,‘这确实可能发生,我们来解决这个问题吧!’”

这个问题可能造成的后果是,由于指令混乱,智能家居设备乱开门乱开灯,搞得一片狼藉,甚至会给消费者带来危险。但要记住,AI 加持的 Siri 和 Alexa 并不是遭到“黑客入侵”,只是被骗了而已。

网络安全专家把诱导 AI 错误判断的潜在危险称作“对抗样本”,类似的还有用化妆、戴眼镜的方式骗过人脸识别软件。