AI中国网 https://www.cnaiplus.com
从自驾车到智能监控系统,社会正在慢慢地学习如何去相信人工智能(AI)。不会感到疲倦、总是能保持警觉的机器视觉系统可以说是保障人们安全的最佳帮手,但它们真的足够可靠吗?
麻省理工(MIT)研究团队Labsix 最近进行的一项研究认为,从目前上看来,机器视觉距离可靠还有很长一段距离得走。
许多人都曾在网络上看过会导致错视效果的图片,圆圈自主性的转动、黑点跳来跳去、看似长度不同的线条却是一样长,这类型的图片会运用颜色、光暗令人眼产生视觉上的错觉,但对电脑并不会有相同的效果。
虽然可能难以想像,但对于电脑来说,其实也是存在会导致「错觉」的图片。研究人员将这类型机器视觉会误判的图片称之为「对抗式影像」(adversarial image)。
Fooling Neural Networks in the Physical World: https://t.co/FzW26UNrBX pic.twitter.com/Q3mnZ4VWfo — labsix (@labsixresearch) 2017年11月2日
视频中是Labsix 运用3D 打印制造出来的一只玩具乌龟。从人的角度来看,相信应该怎么看都是一只乌龟,但对于Google 长期训练识别日常物品的人工智能来说,这并不是一只乌龟,而是一把步枪。
这个玩具乌龟正是对抗式影像的一个例子。随着人工智能发展,人们设计出一种方式来欺骗机器视觉,让人工智能系统无法像人类一般判读图片的正确内容。
你只需要在图片中加入一点误导演算法的对抗模式,或是一个几乎接近透明的涂层,对于常人看来是熊猫的图片,在人工智能看来可能就变成了一台小货车。
随着人工智能技术持续发展,防范类似对抗式攻击的研究也都在持续进行,许多研究认为,虽然这些攻击对人工智能非常有效,但它们并不是太完美的。在过去,你只需要稍微旋转、放大对抗式图片,电脑视觉就能够摆脱错觉,正确识别图片。
但Labsix 这只3D 打印出的玩具乌龟却带来了一个重要的隐忧:这些对抗式攻击运用3D 物体也能够起作用,而且无论从哪个角度观看,它都能够欺骗电脑视觉。
除了制造出一只会被人工智能误认为步枪的乌龟以外,Labsix 还制造了一个会被看作是浓缩咖啡的棒球。Labsix 认为,随着神经网络(neural networks)的应用普遍化,对抗式攻击的问题将会变得越来越实际,因为这些攻击将会导致危险。
「具体来说,这意味着人们可以建造一个路边的标志,在人类司机看来是完全正常的,但对于自驾车来说可能是突然看到一个行人出现在街旁。」
这些对抗式攻击测试主要是在Google 开发的图片分类器Inception-v3 进行,Google 似乎打算在未来让这款分类器商业化,但目前来说所有研究人员都可以免费进行使用。
虽然Labsix 还未在其他机器视觉软件上进行测试,但根据了解,目前还没有软件已经提出针对类似「对抗式影像」的改善及解决办法。
Google 对于这项研究并没有提出评论,但发言人向The Verge 透露,它们认为Labsix 的结论有些错误。
首先,Labsix 的结论谈到3D 对抗式攻击从各个角度皆能误导AI,但从Labsix 自己公布的视频看来,顶多能说是大多数、而非所有角度。
其次,要想做到误导人工智能的视觉,Labsix 必须先能接触到机器视觉的演算法,才能发现弱点并加以利用,对于那些想欺骗自驾车上搭载的商业视觉系统的人来说,这会是一个非常大的障碍。
虽然是否对自驾车造成危险还有些争议,但在其他应用上,人工智能视觉也被证实会被类似的对抗性攻击所误导,Labsix 团队打算未来持续针对这个问题持续进行深入研究。
▲过去对抗式攻击只需要微微调整图片,就能让机器视觉摆脱错觉。
从目前情况来说,对抗性攻击是有效的,但仅限于有限的情况下,所以对于大众来说还不具有非常大的危险。
但随着人工智能和机器视觉在生活中更普遍的被应用,这些「有限」的范围也会随之扩大,如果不找出方法解决,类似的人工智能系统的弱点可能将会成为生活上新的隐忧。 AI中国网 https://www.cnaiplus.com
本文网址: