微软发布了一款名为 Counterfit 的开源工具,可帮助开发人员测试人工智能 (AI) 系统的安全性。
微软已经在 GitHub 上发布了 Counterfit 项目,并指出它之前进行的一项研究发现大多数组织缺乏解决对抗性机器学习的工具。
微软在一篇博客文章中说:“这个工具的诞生是出于我们自己的需要,根据微软负责任的人工智能原则和负责任的人工智能工程战略(RAISE)计划,我们需要评估微软的人工智能系统是否存在漏洞,目的是主动保护人工智能服务。” .
微软将命令行工具描述为“大规模攻击多个人工智能系统的通用自动化工具”,微软的红队操作使用它来测试自己的人工智能模型。 微软也在探索在 AI 开发阶段使用 Counterfit。
该工具可以通过浏览器中的 Azure Shell 进行部署,也可以本地安装在 Anaconda Python 环境中。
微软承诺命令行工具可以评估托管在任何云环境、本地或边缘网络上的模型。 Counterfit 也是模型不可知的,并努力做到数据不可知,适用于使用文本、图像或通用输入的模型。
“我们的工具使安全社区可以访问已发布的攻击算法,并有助于提供一个可扩展的接口,从中可以构建、管理和发起对人工智能模型的攻击,”微软指出。
该工具部分可用于防止对抗性机器学习,在这种情况下,攻击者使用操纵数据欺骗机器学习模型,例如 McAfee 对带有 MobileEye 摄像头的旧特斯拉的黑客攻击,通过在上面放置黑色胶带诱使他们误读速度限制 速度标志。 另一个例子是微软的 Tay 聊天机器人灾难,该机器人发布了种族主义评论。
其工作流程的设计也符合广泛使用的网络安全框架,例如 Metasploit 或 PowerShell Empire。
微软解释说:“该工具预装了已发布的攻击算法,可用于引导红队操作以逃避和窃取人工智能模型。”
该工具还可以帮助扫描 AI 系统的漏洞并创建日志来记录针对目标模型的攻击。
微软与多家客户一起测试了 Counterfit,其中包括航空航天巨头空中客车公司,这是一家在 Azure 人工智能服务上开发人工智能平台的微软客户。
空中客车公司高级网络安全研究员 Matilda Rhode 在一份声明中表示:“人工智能在工业中的应用越来越多;展望未来确保这项技术的安全至关重要,尤其是了解在问题空间中哪些地方可以实现特征空间攻击。”
“微软等组织为安全从业者发布开源工具来评估 AI 系统的安全性是受欢迎的,这清楚地表明该行业正在认真对待这个问题。”