加入收藏 | 设为首页 | 会员中心 | 我要投稿 温州站长网 (https://www.0577zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 教程 > 正文

机器学习的巨大风险:一旦数据被污染,AI 可能完全失控

发布时间:2019-02-20 09:09:24 所属栏目:教程 来源:36氪
导读:编者按:数据成全了人工智能革命。但现在安全专家发现了破解AI的新手段,一旦这些手段被坏人利用,后果可能会很严重。《连线》英国版聚焦了用数据污染AI可能造成的影响——比如说,给数据中植入人类觉察不到的微弱噪声,神经网络就会把乌龟看成了来福枪,

Fernandes说,机器学习核心里面发现了这种瑕疵其实并不令人吃惊,因为在更广泛传播之前系统通常都不会进行过很好的测试。他说:“随着机器学习变得越来越普遍,安全研究人员很自然就会开始从对抗角度审视这种系统,并且找到可以被利用的漏洞。”

这不仅是技术瑕疵,也是哲学假设。首先,机器学习开发者假定训练数据和测试数据是类似的,而攻击者可以自由地操纵对自己有利的数据。其次,我们假定神经网络跟我们的思考方式相似,但其实并不是;神经网络里面用于识别玩具乌龟的元素不同于我们要寻找的东西,这种差异给攻击创造了机会。Fernandes说:“神经网络是人脑极其粗略的近似。把它们看成跟我们类似的思考方式可能不是思考神经网络机制最好的办法。”

编译组出品。编辑:郝鹏程。

(编辑:温州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读