美国商务部下属的国家标准与技术研究院 (NIST) 正在征求公众对人工智能风险管理框架的意见,该组织正在开发该框架作为“管理 人工智能带来的风险。”
人工智能风险管理框架 (AI RMF) 将是一份自愿性文件,开发人员、评估人员和其他人可以将其用作“提高人工智能系统的可信度”的一种方式。
NIST 指出,在国会和白宫要求该组织为 AI 创建一个框架之后,提出了输入请求。
商务部副部长 Don Graves 在一份声明中表示,该文件“可能会对新的 AI 技术在市场上是否具有竞争力产生重大影响。”
“每一天,人工智能为我们带来广泛的创新和新功能变得越来越明显,这些创新和新功能可以促进我们的经济、安全和生活质量。至关重要的是,我们要注意并准备好管理人工智能技术带来的风险 与他们的好处,”格雷夫斯说。
“这个人工智能风险管理框架将帮助人工智能的设计者、开发者和用户考虑所有这些因素——从而提高美国在竞争激烈的全球人工智能市场中的能力。”
围绕人工智能跨行业使用的某种形式的监管需求越来越大,尤其是当它开始被纳入许多关键、敏感的流程时。 研究表明,数以百计的 AI 系统都存在其创造者尚未解决的偏见。
保险公司 Lemonade Insurance 在 5 月宣布他们的人工智能系统将根据事故发生后提交的视频判断一个人是否在车祸中撒谎,因此遭到强烈反对。
结束在公共和私人机构采用的面部识别软件中使用人工智能的运动已经存在了很长时间。
NIST 的联邦人工智能标准协调员兼国家人工智能研究资源工作组成员 Elham Tabassi 解释说,要使人工智能充分发挥造福社会的潜力,它必须是一项值得信赖的技术。
Tabassi 说:“虽然可能无法消除人工智能固有的风险,但我们正在通过一个以共识为导向的协作过程来开发这个指导框架,我们希望这将鼓励它的广泛采用,从而最大限度地降低这些风险。”
NIST 指出,基于人工智能的新技术、产品和服务的开发和使用带来了“技术和社会挑战和风险”。
“NIST 正在征求意见,以了解参与开发和使用人工智能系统的组织和个人如何能够解决人工智能风险的全部范围,以及如何构建管理这些风险的框架,”NIST 在一份声明中说。
NIST 专门寻找有关开发人员在改进 AI 相关风险管理方面面临的最大挑战的信息。 NIST 也有兴趣了解组织目前如何定义和管理 AI 可信度的特征。 该组织同样在寻求有关人工智能风险在多大程度上被纳入组织总体风险管理的意见,特别是在网络安全、隐私和安全方面。
NIST 预计将在 8 月 19 日之前做出回应,他们计划在 9 月举行一次研讨会,届时专家们将能够帮助制定初稿的大纲。
第一稿发布后,NIST 将继续努力,并可能回来征求更多公众意见。
白宫科技政策办公室国家 AI 倡议办公室主任 Lynne Parker 表示,AI 风险管理框架将“满足推进可信赖的 AI 方法以负责任、公平和有益的方式为所有人服务的主要需求 ”
“AI 研究人员和开发人员需要并希望在 AI 技术开发之前、期间和之后考虑风险,这个框架将为他们的工作提供信息和指导,”Parker 补充道。