2021年,随着越来越多的组织采用新技术,人工智能在技术和 *** 安全方面的未来将继续发展。根据最近的一项调查,三分之二的组织已经将智能技术应用于 *** 安全。使用这些工具可以使公司更充分地准备使用 *** 犯罪技术和创新攻击的不断发展AI技术。例如,仅在去年,犯罪分子就使用了基于AI复制软件CEO声音要求现金转移2.2万欧元(约2.43万美元)。
2021年将会有更多的希望AI对于集成在其安全堆栈中的企业,遵循以下六个步骤,以确保有效使用AI不损害任何其他地方的安全至关重要。
鼓励将AI负责任地用于 *** 安全
最近的数据显示,四分之三的高管认为使用它AI它可以使他们的组织更快地响应违规行为。 *** 安全领导者必须采用威胁形势持续快速变化的方式AI应对 *** 犯罪分子制定的新策略。相反,企业必须集中精力确保政策支持。例如,美国对AI计划的出口管制应确保企业正在使用AI继续在全球 *** 安全市场保持竞争力。
确保AI概念参与威胁建模和风险管理
AI全球部署不断增长,超过四分之一AI该计划已投入生产,超过三分之一的项目正处于高级开发阶段。然而,仔细考虑攻击者如何试图破坏这种增长和新的集成AI系统的稳定性。虽然它还没有被广泛使用,但随着数据攻击的广泛使用,机器学习系统可能会部署 *** 攻击,包括数据中毒攻击和训练模型的后门。AI该系统的威胁模型很少见,而且往往不成熟。业务领导者应努力开发 *** ,以确保AI在风险管理活动范围内,尽量减少此类威胁。
制定和推广AI系统道德标准
公共部门和私营部门都应该是AI在应用程序中使用道德标准,并鼓励将强大的安全性和透明度控制纳入这些道德框架。有很多 *** 可以控制它AI应用于 *** 安全程序,确保识别等重要性Microsoft AI原则等框架。支持道德AI原则包括:消除AI偏见,保护AI确保人们是对的AI技术如何影响世界负责?
支持透明度,公开分享新发现
有关AI新的研究集和学术期刊上经常发表新的研究、新的对抗性攻击和防御。然而,有时这些贡献没有足够深入地解释如何获得这些发现,许多论文没有提供或链接代码,这将导致结果的准确再现。AI研究企业通常是秘密进行的,这是给予的AI进步的验证和实施带来了负担。这为安全从业者评估这些模型的可能攻击提供了更具挑战性的环境,最终使企业更难应对这些威胁。
优先进行AI系统进攻性研究
在将AI在产品应用技术之前,企业必须验证这些新技术的潜在风险。组织应确保AI应用程序和相关机器学习系统对当前安全程序的监控和测试范围具有重要意义。监控和测试应包括两家企业自发采取的措施,以支持发现可能没有注意到的不可预测的措施AI缺陷、安全框架和指导以及与安全研究人员的合作。
建立和整合隐私保护机器学习
尽管机器学习和AI技术越来越流行,但对隐私的影响还有待广泛讨论。特别是神经 *** 可以从训练数据中记住特定的例子。AI该系统可能容易受到模型反向攻击的攻击,导致通过反复查询模型来窃取模型训练的数据。如果该模型训练敏感数据,攻击者可以恢复训练数据的信息。隐私漏洞的风险越来越大,人们越来越需要使用和开发保留隐私的机器学习系统。这不仅可以保护业务,还可以保护使用数据来培训模型的消费者。
将AI整合到 *** 安全计划中并不容易。企业领导者必须认识到合并带来的挑战,开发解决方案,以增强 *** 安全计划,保持道德,保护私人数据。鼓励威胁建模和持续的人工智能研究,除了遵循明确的公共标准外,负责任地使用人工智能技术是必不可少的一步,这将是AI成功集成到 *** 安全程序中。