人工智能技术已在网络安全领域被广泛恶意使用-人工智能技术已在网络安全领域被广泛恶意使用-华盟网

人工智能技术已在网络安全领域被广泛恶意使用

华盟学院山东省第二期线下学习计划

 

近日,26位来自斯坦福、耶鲁、牛津、剑桥和OpenAI等顶尖科研机构的科学家,联合发布了一篇题为《恶意使用人工智能:预测、预防和缓解》的报告,就世界范围内人工智能技术的恶意使用进行了综述,其中也重点提及了AI在网络安全方面的恶意使用问题。  

双刃剑

人工智能可以代替人类执行数据分析任务,从效率上来看,它可以在20毫秒甚至更短的时间内执行数百万条指令,令很多以前看上去不切实际的任务变得迎刃而解。
但不可否认的是,AI是一把双刃剑,其对网络安全的威胁事件正在频繁出现,并且能攻破现有的防御措施,更准确地锁定目标——这一切都是因为AI技术也掌握在恶意人员的手中。  

当前的机器学习和端点保护

如今,机器学习已广泛应用于下一代端点保护系统中,比如最新的反恶意程序软件。它之所以被称为“机器学习”,是因为系统内的AI算法能从数百万乃至更多的样本和恶意软件的行为模式中进行“学习”。机器学习可以将检测到的新模式与已知的恶意模式进行比较,并生成潜在恶意行为的概率等级,其速度和精度能达到人类难以企及的程度。
这很有效,但有两个附加条件:取决于“学习”算法的质量,以及它所“学习”的数据集的完整性。
潜在的滥用可能出现在两个方面:一是操控甚至改变算法;二是污染机器学习的数据集。此外,该报告还警告说:“机器学习算法对内存溢出之类的传统漏洞‘持开放态度’。”
当然,网络攻防双方的基本冲突并不会随着机器学习的出现而改变:每一方都试图对另一方保持领先,而每一方的成功只能维持很短暂的时间。我们需要认识到,正如我们第一次使用抗生素对耐药菌株的效果最好一样,利用AI技术的新型防御措施,也只有在最开始的时候最为有效,因为恶意人员还没有制定相关的规避和对抗策略。所以随着时间的推移,我们将会看到利用机器学习技术的恶意攻击也会随着AI防御策略的应用而变化。
好在,网络安全行业意识到了AI潜在的恶意使用,并且已经在考虑如何应对。在创新安全措施并保持领先地位方面,安全公司正在与同行和黑客进行三方竞争,目前已经取得了不错的成果。
研究人员提出了保护机器学习算法安全性和安全使用的三条准则:首先是理解并适当限制AI与系统或端点的交互;其次是理解和限制数据的摄取;再次,完成模型建立后,主动在部署之前和之后探测它的盲点。  

身份问题

该报告将“身份”作为潜在恶意使用AI的第二个领域展开了讨论。

 

上图为2014年和2017年的合成图像对比[/caption]
在人脸识别方面,人工智能识别和生成图像的能力正在迅速提高,其影响既有正面的,也有负面的。毫无疑问,人脸识别对于侦查犯罪行为和恐怖分子是有益的,但应用不当的可能仍然存在。
比如一种名为CycleGAN的深度学习模型,能轻松地将一类图片转换成另一类图片。利用AI技术,已经能够伪造极度仿真的人物声音、神态及动作,生成难以识别的虚假视频、图像。不法分子可以利用AI技术伪造出相关人员的样貌,进而冒用其身份骗过身份认证系统,窃取钱财或机密数据。
在语音识别和语义理解方面,人工智能也有着很多有益的应用,这可以更好地进行生物识别——如果AI不是一把双刃剑的话。在AI技术的加持下,随着人脸识别和语音识别的广泛应用,图像、文本和音频的合成也有了迅速发展。 “这就意味着可以伪装成任何人,或通过社交媒体分发AI生成的内容来影响舆论。”
该报告称,用AI生成假新闻要更常见,也更现实。但是从危害程度来讲,通过AI技术滥用、冒用身份,还能进行更有针对性的鱼叉攻击,这将对企业网络安全和国家安全带来更大危害。
研究人员建议,需要改进当前的身份验证方法。“随着机器和人类之间的(网络行为)界限变得越来越模糊,我们将会看到身份认证方式的转变,比如在登录计算机或工作系统时。今天,身份认证被用于区分人类用户,防止一个人的身份被另一个人冒用。在未来,我们还需要区分人类和机器。”
显然,在人工智能时代,仅凭人脸、语音、指纹识别,并不能严格确认一个人的身份,毕竟它们被获取和伪造的成本实在太低。有研究表明,每个人的(物理)行为特征是独一无二、不可复制的。将行为识别作为身份认证的方式时,若要冒用一个人的身份,恐怕得复制那个人,并且训练“副本”模仿出一模一样的行为特征才行。这显然是不现实的。正是因此,基于AI的行为识别才是身份认证的趋势。  

伦理问题

此外,报告还讨论了AI使用民众大数据的隐私或伦理道德问题,并指出随着GDPR的生效,这一问题将有望得到改善。
在这个问题上,研究人员认为道德规范不应该成为防范AI被恶意使用的焦点。“我们需要更加重视恶意人员使用AI的能力,但绝不能通过限制AI技术的发展来防止这种情况的发生。”  

结  语

www.idc126.com

该报告表明,利用AI技术,生成“假”身份(文本、图像、语音、视频)的社会工程学将变得非常容易,而且,恶意使用AI造成的网络安全威胁还会持续增多。AI会在质量和数量上提高、扩大我们今天面临的同样的威胁,不过与此同时,AI也能增加和改善针对这些威胁的防御措施。如果要防范利用了AI技术的网络攻击,那么,安全厂商也应该积极地在其产品中使用人工智能技术。
“机器学习可以让攻击者轻松、快速地发现无数漏洞,但请记住,这些技术也掌握在白帽子手中……最终的情况可能看起来和现在一样。”

本文由来源 securityweek,由 易斯•lwy 整理编辑,其版权均为 securityweek 所有,文章内容系作者个人观点,不代表 华盟网 对观点赞同或支持。如需转载,请注明文章来源。
0

发表评论