对AI系统的攻击是一个日益令人担忧的问题
微软团队在松弛上获得了基础
每个人都缺少像素销售的3个大星号
Microsoft为Windows 10信号迁移加速的800M索赔
北欧初创公司将国际扩张作为起点
APAC CIO如何推动AI项目
Zoom修复了WebCAM缺陷的Mac,但安全问题徘徊
Android Q的泡沫可能是移动多任务突破
智能手机升级何时成为实际降级?
澳大利亚公司用安全立法的“火车粉碎”努力
全球恶意软件下来但赎金软件,与英国硬打击
空中客车在威尔士开设网络创新枢纽
Western Digital旨在帮助重新考虑非结构化数据存储
对于房地产,区块链可以承担投资
伦敦运输支持创新以解决道路拥堵
Excelero和Beegfs基于NVME Flash提供下一代HPC
退休后Windows 7修补程序:不只是为大狗现在
Facebook与区块链进入银行业务
New Win10 1903'立即下载并安装' - 用于累积更新?
AI如何帮助保护日本的道路系统免受沉降
数据驱动北欧医疗保健的权力下放
调查显示,商业利益将客户安全投入风险,调查显示
英国政府宣布新的在线安全机构
7种谷歌的智能显示器可能变得更聪明
科学武器随时可供犯罪分子,研究人员发布
微软最终获得IE10的几年,告诉企业升级到IE11
Equinix推出1亿美元的合资企业,以确保更多的欧洲高度扑热
Apple取消计划在丹麦建立第二欧洲数据中心
经济学家Nouriel Roubini:区块链和比特币是世界上最大的骗局
谷歌增加了芬兰的存在和投资
微软已经是猛烈的补丁。确保禁用自动更新。
4谷歌助理添加值得关注
Oracle第2代云服务在澳大利亚首次亮相
近三分之二的企业受到凭证滥用
Turla Apt Group Beefs Up Cyber​​攻击工具
Windows Server 2019仍释放Limbo
英国公共部门需要优先考虑移动设备安全性
CIO采访:加里脚,Cio,Rich Energy Haas F1
WWDC:你需要知道与苹果登录的内容
为什么亚马逊可能希望成为美国的下一个移动运营商
英国政府推动数据驱动的议程
中国公司秘密拥有的顶级VPN
APAC专家权衡网络安全趋势
家庭办公室手EE额外£220米为ESN
4大,脂肪,讨厌的Android Q手势问题
我们了解到苹果汽车项目的20件事
思科将语音转录与Voicea购买
Techuk说,5G移动网络转型为健康和社会护理
邮局任命新的首席信息官
谷歌的应用程序重新设计真的让我感到沮丧
您的位置:首页 >产品 > 人工智能 >

对AI系统的攻击是一个日益令人担忧的问题

2021-08-31 12:43:59 [来源]:

网络攻击者目前重点关注他们对操纵现有的人工智能(AI)系统进行恶意目的,而不是创造使用机器学习的新攻击。

这是2018年成立的欧盟资助项目的Sherpa财团报告的关键寻找,以研究AI在包括英国在内的六个国家的11个组织的伦理和人权的影响。

然而,报告指出,攻击者可以访问机器学习技术,并且IT Security Company的首席研究官Mikko Hypponen是Sherpa财团的成员的首席研究官Mikko Hypponen的说法,AI支持的网络攻击将是一个现实。

攻击者和防守者之间的“猫和老鼠”的持续游戏将达到全新的水平,双方都使用AI,Sypponen和捍卫者在看到首次启动AI的攻击时,我们会尽快自行调整。

尽管有一些安全供应商的索赔,但Hypponen每周告诉计算机,在最近的一次面试中,没有犯罪集团似乎没有使用AI进行网络攻击。

因此,Sherpa学习侧重于恶意演员如何滥用AI,机器学习和智能信息系统。研究人员确定了已经在攻击者的范围内的AI潜在的恶意用途,包括建立复杂的消毒和社会工程竞选活动。

虽然该研究发现没有明确的证据证明,恶意演员目前正在使用AI通电网络攻击,如Hypponen所示,研究人员强调了对手已经攻击和操纵搜索引擎,社交媒体公司,推荐网站使用的现有AI系统,以及更多的。

Andy Patel是F-Secure的AI卓越中心的研究人员表示,而不是AI攻击人,目前的现实是人类经常攻击AI系统。

“有些人不正确地等同于人类智力的机器智能,我认为这就是为什么他们将AI的威胁与杀手机器人和对照的计算机联系起来,”Patel说。

“但是对AI的人类袭击实际上一直发生。Sybil攻击旨在毒害人们每天使用的AI系统,例如推荐系统,是一个常见的发生。甚至还有销售服务以支持这种行为的公司。因此,讽刺意味着,今天的AI系统更多地从人类恐惧而不是其他方式。“

Sybil攻击涉及单个实体创建和控制多个虚假帐户,以便操纵AI用于做出决策的数据。这种攻击的一个流行示例是操纵搜索引擎排名或推荐系统,以促进或降低某些内容。但是,这些攻击也可以用于在目标攻击方案中的社会工程师签发。

“这些类型的攻击对于在线服务提供商来说已经非常困难,并且可能比任何人都完全理解的行为更广泛地普遍,”Patel,他们对Twitter上的可疑活动进行了广泛的研究。

根据研究人员的说法,可能是未来攻击者的AI最有用的应用程序将有助于他们创造虚假内容。该报告指出,AI已经高级到了可以制作极其现实的书写,音频和视觉内容的程度。一些AI型号甚至从公众扣留,以防止他们被攻击者滥用。

帕特尔补充说:“目前,我们创造令人信服的假装的能力比我们检测到它的能力更为复杂和高级。并且有许多不同的应用程序来令人信服,假的内容,所以我希望它可能最终成为问题。“

报告的其他主要结果包括:

作为技术传播,对手将继续学习如何危及AI系统。攻击者可以操纵AI的输出的方式的数量使得难以检测和硬化。竞争发展更好类型的AI的权力可能最终促使“AI军备竞赛”。防止AI系统免受攻击可能导致道德问题,例如通过增加活动监测来造成伦理侵权。通过先进,资源良好的威胁演员开发的AI工具和型号最终将通过较低技能的对手通过并采用。

Sherpa Project Coordinator Bernd Stahl,莱斯特德蒙福特大学教授表示,由于网络安全行业的唯一合作伙伴是帮助项目占恶意演员如何使用AI在社会信任的地方的唯一合作伙伴。

“我们的项目目的是了解AI和大数据分析的道德和人权后果,以帮助培养解决这些问题的方式,”他说。“这项工作必须基于对技术能力以及漏洞的理解。在不考虑网络安全的情况下,我们无法对AI的人权,隐私或道德进行有意义的对话。“

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。