而在研究团队负责人Clune看来,这反映了该领域的世代转移。若干年以前,做AI的那帮人还是开发AI的。而现在,神经网络已经足够先进,以至于研究人员拿来用就行了。
拿来就能用未必是坏事。但是随着越来越多的东西是基于AI来搭建的,那么发现AI的缺陷就显得愈发的至关重要。把一些随机像素误认为是某种动物当然无伤大雅,但是如果AI让某些色情图片在安全搜索过滤中漏网性质就很严重了。Clune希望这项研究可以激发其他研究人员跟进,在算法中考虑到图像的整体结构。换句话说,让计算机视觉更像人类视觉。
同时,这项研究也促使我们考虑AI其他形式的漏洞。比方说脸部识别也依赖于同类的技术,因此也会有类似缺陷。
如果计算机视觉只是关注于局部特征的话,也许安上一个3D打印的鼻子就能让计算机认为你是别人。戴上一个面具就能让你从监视系统中消失。计算机视觉的应用越广泛,此类隐患就会越大。
不过从更宽泛的意义来说,这项研究带给我们的警示是我们正进入自我学习系统的时代。现在,我们仍然控制着自己开发出来的东西。但随着AI不断自我开发自己,有一天我们发现自己搞不懂AI也不奇怪。“计算机做什么不再是人写代码写出来的了,”Clune说:“这几乎是相互作用的组件间的规模效益导致的智能出现。”在这一智能的利用上我们无疑没有浪费时间。但是在我们这么做的时候是否完全理解了它就不太清楚了。
关注天下网吧微信,了解网吧网咖经营管理,安装维护:
本文来源:不详 作者:佚名