欢迎光临GGAMen游戏资讯




研究发现对抗攻击方法,可适用多个人工智能模型

2024-11-01 211

人工智能虽然非常强大,不过正如任何电脑系统,都会有缺点和漏洞。最近有研究发现,如果找出一个成功骗过人工智能模型的攻击方法,可在另一人工智能模型奏效。

意大利 University of Cagliari 及美国 Northeastern University 研究人员最近于 arXiv 刊登的论文指出,常见用来欺骗人工智能神经网络的攻击,一旦发现在一个人工智能模型有效,在其他人工智能模型也同样有效,变相让攻击者可先在风险较低的人工智能模型测试,找到有效的方式后再实际于资安较严格的地方使用。

研究人员表示,这种可转换性让攻击者针对完全不同而未知的模型进行有效攻击,对现在越来越普及的人工智能系统是危险的现象。特别是当现在资讯更透明公开,攻击者了解目标系统的架构,并采用相关开源模型测试也越来越容易。他们也在论文提及如何避免这情况,让系统设计者更小心,避免遭受攻击。

  • Fool ML once, shame on you. Fool ML twice, shame on… the AI dev? If you can hoodwink one model, you may be able to trick many more

(本文由 Unwire Pro 授权转载;首图来源:shutterstock)

2019-03-10 13:32:00

标签:   游戏头条 资讯头条 ggamen科技资讯 ggamen科技 ggamen科技资讯头条 科技资讯头条 ggamen游戏财经 新闻网 科技新闻网 科技新闻 ggamen ggamen游戏新闻网 科技新闻网 ggamen游戏财经 科技资讯头条 ggamen科技资讯头条 ggamen科技 ggamen科技资讯 资讯头条 游戏头条 ggamen ggamen游戏新闻网 科技新闻 科技新闻网 ggamen游戏财经 科技资讯头条 ggamen科技 ggamen科技资讯 资讯头条 游戏头条
0