CA168首页 > 自动化信息 > 综合信息 > 信息详情

腾讯安全团队:谷歌AI学习系统有安全漏洞

发布日期:2017-12-18 作者:网络
       杨勇说:“通俗地讲,如果设计人员在给机器人编程时恰好使用了含有该漏洞的组件,那么恶意攻击者就有可能利用漏洞控制该机器人,这是非常可怕的。”


       12月16日,腾讯安全平台部Blade团队日前对外发布消息称,该团队在对谷歌人工智能学习系统TensorFlow进行代码审计时,发现该系统存在重大安全漏洞,利用该系统进行编辑的AI场景,有遭受恶意攻击的可能。
 
       据腾讯安全平台部负责人杨勇介绍,TensorFlow是目前谷歌免费开放给AI设计者的编程平台,程序员可以在该平台上进行AI组件的设计工作。杨勇表示,当含有安全风险的代码被编辑进诸如面部识别或机器人学习的AI使用场景中,攻击者就可以利用该漏洞完全接管系统权限,窃取设计者的设计模型,侵犯使用者隐私,甚至对用户造成更大伤害。
 
       杨勇说:“通俗地讲,如果设计人员在给机器人编程时恰好使用了含有该漏洞的组件,那么恶意攻击者就有可能利用漏洞控制该机器人,这是非常可怕的。目前我们在AI安全领域还只是迈出了一小步,未来期待更多的技术人员一起完善AI,让AI更安全……”
 
       Blade团队表示,TensorFlow是目前应用最为广泛的机器学习框架之一,已被运用在诸多AI场景中,如语音识别、自然语言理解、计算机视觉、广告、无人驾驶等;其一旦被黑客控制,后果不堪设想。目前Blade团队已将漏洞的运用机理致函谷歌公司,而该漏洞需要谷歌安全团队对代码重新编辑。
 
       对此,一些业内专家也表达了担忧。上海信息安全行业协会专委会副主任张威认为,当前从事人工智能开发的企业几乎无一例外地将算法和数据相融合,一些数据可能涉及企业和用户的核心秘密,一旦出现安全漏洞,风险较高。
 
       张威建议,有关企业应尽快自查是否使用过该平台进行AI编程,同时行业内应加强联系沟通,消除安全隐患。
[信息搜索] [] [告诉好友] [打印本文] [关闭窗口] [返回顶部]

上一篇:新能源汽车地方补贴面临取消 北京或先行退出

下一篇:PNOZmulti小型可配置控制器产品领域的结构是怎样的?

免责申明

       本文仅代表作者个人观点,与中自网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容!来源网络如有误有侵权则删。

视觉焦点