对AI系统的攻击是一个日益令人担忧的问题
网络攻击者目前重点关注他们对操纵现有的人工智能(AI)系统进行恶意目的,而不是创造使用机器学习的新攻击。
这是2018年成立的欧盟资助项目的Sherpa财团报告的关键寻找,以研究AI在包括英国在内的六个国家的11个组织的伦理和人权的影响。
然而,报告指出,攻击者可以访问机器学习技术,并且IT Security Company的首席研究官Mikko Hypponen是Sherpa财团的成员的首席研究官Mikko Hypponen的说法,AI支持的网络攻击将是一个现实。
攻击者和防守者之间的“猫和老鼠”的持续游戏将达到全新的水平,双方都使用AI,Sypponen和捍卫者在看到首次启动AI的攻击时,我们会尽快自行调整。
尽管有一些安全供应商的索赔,但Hypponen每周告诉计算机,在最近的一次面试中,没有犯罪集团似乎没有使用AI进行网络攻击。
因此,Sherpa学习侧重于恶意演员如何滥用AI,机器学习和智能信息系统。研究人员确定了已经在攻击者的范围内的AI潜在的恶意用途,包括建立复杂的消毒和社会工程竞选活动。
虽然该研究发现没有明确的证据证明,恶意演员目前正在使用AI通电网络攻击,如Hypponen所示,研究人员强调了对手已经攻击和操纵搜索引擎,社交媒体公司,推荐网站使用的现有AI系统,以及更多的。
Andy Patel是F-Secure的AI卓越中心的研究人员表示,而不是AI攻击人,目前的现实是人类经常攻击AI系统。
“有些人不正确地等同于人类智力的机器智能,我认为这就是为什么他们将AI的威胁与杀手机器人和对照的计算机联系起来,”Patel说。
“但是对AI的人类袭击实际上一直发生。Sybil攻击旨在毒害人们每天使用的AI系统,例如推荐系统,是一个常见的发生。甚至还有销售服务以支持这种行为的公司。因此,讽刺意味着,今天的AI系统更多地从人类恐惧而不是其他方式。“
Sybil攻击涉及单个实体创建和控制多个虚假帐户,以便操纵AI用于做出决策的数据。这种攻击的一个流行示例是操纵搜索引擎排名或推荐系统,以促进或降低某些内容。但是,这些攻击也可以用于在目标攻击方案中的社会工程师签发。
“这些类型的攻击对于在线服务提供商来说已经非常困难,并且可能比任何人都完全理解的行为更广泛地普遍,”Patel,他们对Twitter上的可疑活动进行了广泛的研究。
根据研究人员的说法,可能是未来攻击者的AI最有用的应用程序将有助于他们创造虚假内容。该报告指出,AI已经高级到了可以制作极其现实的书写,音频和视觉内容的程度。一些AI型号甚至从公众扣留,以防止他们被攻击者滥用。
帕特尔补充说:“目前,我们创造令人信服的假装的能力比我们检测到它的能力更为复杂和高级。并且有许多不同的应用程序来令人信服,假的内容,所以我希望它可能最终成为问题。“
报告的其他主要结果包括:
作为技术传播,对手将继续学习如何危及AI系统。攻击者可以操纵AI的输出的方式的数量使得难以检测和硬化。竞争发展更好类型的AI的权力可能最终促使“AI军备竞赛”。防止AI系统免受攻击可能导致道德问题,例如通过增加活动监测来造成伦理侵权。通过先进,资源良好的威胁演员开发的AI工具和型号最终将通过较低技能的对手通过并采用。Sherpa Project Coordinator Bernd Stahl,莱斯特德蒙福特大学教授表示,由于网络安全行业的唯一合作伙伴是帮助项目占恶意演员如何使用AI在社会信任的地方的唯一合作伙伴。
“我们的项目目的是了解AI和大数据分析的道德和人权后果,以帮助培养解决这些问题的方式,”他说。“这项工作必须基于对技术能力以及漏洞的理解。在不考虑网络安全的情况下,我们无法对AI的人权,隐私或道德进行有意义的对话。“