在第一份草案出台一年后,关于欧盟人工智能法案的细节仍然很少。 尽管这个监管框架还没有最终确定——或者更确切地说,正是因为这个原因——现在是时候了解更多了。
之前,我们介绍了有关欧盟 AI 法案的一些关键事实:它适用于谁、何时颁布以及它的内容。 我们与 Mozilla 基金会的执行董事 Mark Surman 和高级政策研究员 Maximilian Gahntz 一起开始了这项探索。
正如 Surman 分享的那样,Mozilla 对人工智能的关注大约与欧盟人工智能法案也开始其生命周期的同时——大约在 2019 年。Mozilla 与世界各地的人们合作制定了一个如何让人工智能更值得信赖的理论,专注于 两个长期成果:机构和问责制。
今天我们将继续与 Surman 和 Gahntz 的对话。 我们讨论了 Mozilla 关于改进欧盟 AI 法案的建议以及人们如何参与,以及 Mozilla 的 AI 变革理论。
欧盟人工智能法案正在进行中
欧盟人工智能法案即将出台,预计将于 2025 年左右生效,其对人工智能的影响可能类似于 GDPR 对数据隐私的影响。
欧盟人工智能法案适用于位于欧盟境内的人工智能系统的用户和供应商、在欧盟以外建立的供应商,这些供应商是欧盟境内人工智能系统投放市场或调试的来源,以及已建立的人工智能系统的供应商和用户 当系统生成的结果在欧盟使用时,在欧盟以外。
它的方法是根据 AI 系统构成的感知风险将其分为 4 级:完全禁止不可接受的风险系统(尽管有一些例外情况),高风险系统受可追溯性、透明度和稳健性规则的约束,低风险系统 – 风险系统要求供应商的透明度和没有设定要求的最小风险系统。
在这一点上,欧盟议会正在考虑其从指定委员会和第三方收到的意见,从而确定自己的立场。 一旦欧盟议会巩固了他们对“可信赖人工智能”一词的理解,他们将提交关于如何修改初稿的想法。 议会、委员会和成员国之间将进行最后一轮谈判,届时欧盟人工智能法案将通过成为法律。
要影响欧盟人工智能法案的方向,现在是采取行动的时候了。 正如 Mozilla 在 2020 年发表的论文《创造可信赖的人工智能》中所述,人工智能具有改善我们生活质量的巨大潜力。 但是,将 AI 集成到我们每天使用的平台和产品中同样会损害我们的安全、安全和隐私。 […] 除非采取关键步骤使这些系统更值得信赖,否则 AI 会冒着加深现有不平等的风险。
Mozilla 认为,如果我们想让 AI 更值得信赖,就需要有效和前瞻性的监管。 这就是为什么它在两年前的人工智能白皮书中对欧盟委员会的雄心表示欢迎。 Mozilla 的立场是,欧盟人工智能法案是朝着正确方向迈出的一步,但它也留下了改进的空间。
Mozilla 建议的改进已在博客文章中列出。 他们专注于三点:
确保问责制
创造系统透明度
赋予个人和社区更强的发言权。
3个重点
正如 Gahntz 解释的那样,问责制实际上是确定谁应该对 AI 供应链中的什么负责。 风险应在出现的地方加以解决; 无论是在技术设计阶段还是在部署阶段,他继续补充道。
欧盟人工智能法案将以目前的形式对那些开发和营销高风险人工智能系统的人施加大部分义务。 虽然这有充分的理由,但 Gahntz 认为,与人工智能系统相关的风险还取决于其确切目的和使用环境。 谁部署了系统,部署的组织设置会受到系统使用的影响——这些都是相关的问题。
为了说明这一点,让我们考虑像 GPT-3 这样的大型语言模型的情况。 它可用于总结短篇小说(低风险)或评估学生论文(高风险)。 Mozilla 认为,这里的潜在后果大不相同,部署者应对他们使用人工智能系统的方式负责,但如果不引入他们无法有效遵守的义务,部署者就应该承担责任。
系统透明度超越了面向用户的透明度。 虽然用户知道他们何时与人工智能系统交互是件好事,但我们在更高层次上还需要记者、研究人员和监管机构能够审查系统以及这些系统如何影响当地的人们和社区, 甘茨说。
欧盟人工智能法案草案包括一个确保系统透明度的潜在强大机制:一个由委员会创建和维护的高风险人工智能系统的公共数据库,开发人员在这些系统可以部署之前注册并提供有关这些系统的信息。
Mozilla 在这里的建议是三方面的。 首先,将该机制扩展到适用于所有高风险人工智能系统的部署者。 其次,它还报告其他信息,例如对 AI 系统设计、一般逻辑和性能的描述。 第三,它包括有关严重事件和故障的信息,根据 AI 法案,开发商已经必须向国家监管机构报告这些信息。
Gahntz 说,赋予个人和社区更强的发言权是欧盟 AI 法案原始草案中缺失的内容。 按照目前的情况,只有欧盟监管机构被允许要求公司对人工智能产品和服务的影响负责。
然而,Mozilla 认为个人能够让公司承担责任也很重要。 此外,其他组织——如消费者保护组织或工会——需要能够代表个人或公共利益提出投诉。
因此,Mozilla 支持一项提议,即为受影响的个人和个人团体添加一个自下而上的投诉机制,以作为每个欧盟成员国的单一联络点向国家监管机构提出正式投诉。
Mozilla 还指出,在通过人工智能法案之前,还有其他几种方法可以加强它。 例如,为指定高风险人工智能的构成机制提供面向未来的证明,并确保在实施高风险人工智能系统必须满足的要求时考虑广泛的观点。
参与人工智能变革理论
您可能同意 Mozilla 的建议并希望给予支持。 您可能想要添加它们,或者您可能想要提出您自己的一套建议。 然而,正如 Mozilla 的人指出的那样,参与的过程有点像领导你自己的竞选活动——没有“这是你需要填写的表格”这样的事情。
“参与的方式实际上是正常的民主程序。你有民选官员研究这些问题,你也有公共服务内部的人提出这些问题,然后你有一个公众行业就这些问题进行辩论。
我认为有一种特殊的机制; 当然,像我们这样的人会考虑具体的建议。 通过与我们一起权衡,您可以帮助扩大这些。
但我认为公开的民主对话——在公共场合,结交盟友并与你同意其观点的人建立联系,努力解决和解决棘手的话题。这将产生影响,这当然是我们关注的重点 “,苏尔曼说。
根据 Gahntz 的说法,在这一点上,真正重要的是影响公众舆论和有权做出决定的人的意见。 他继续补充说,这意味着议员、欧盟成员国官员和欧盟委员会内部的官员。
Gahntz 认为,在更基层的层面上,人们可以做的和往常一样。 您可以写信给当地的环境保护部; 您可以活跃在社交媒体上并尝试扩大您同意的声音; 你可以签署请愿书等等。 Mozilla 在参与制定公共政策方面有着悠久的历史。
“代理和问责制问题是我们的重点,我们认为欧盟人工智能法案是一个非常好的背景,它们可以产生全球连锁反应,推动这些主题朝着正确的方向发展,”苏尔曼说。
机构和问责制是 Mozilla 的 AI 变革理论中期望的长期成果,该理论于 2019 年通过与专家交谈 12 个月、阅读和试行 AI 主题的活动和项目而制定。 这一探索通过加强几个挑战领域,包括垄断和集中化、数据治理和隐私、偏见和歧视,以及透明度和问责制,磨练了 Mozilla 对可信赖人工智能的思考。
Mozilla 的 AI 变革理论确定了一些短期成果(1-3 年),分为 4 个中期成果(3-5 年):改变行业规范、构建新技术和产品、产生需求以及制定法规和 奖励。 设想的长期影响将是“一个人工智能的世界[在那里]消费技术丰富了人类的生活”。
“监管是一种推动因素,但如果人们不以不同的方式构建不同的技术并且人们不希望使用该技术,那么法律就是一张纸”,正如 Surman 所说的那样。
如果我们看一下 GDPR 的先例,有时我们会得到非常有趣的新公司和新软件产品,它们会牢记隐私,有时我们只会收到烦人的弹出式提醒,提醒您正在收集您的数据和 cookie,等等, 他接着补充道。
“确保像这样的法律能推动真正的变革并为人们带来真正的价值是一件棘手的事情。这就是为什么现在,重点应该放在行业、开发人员和部署人员可以做哪些实际的事情上,以使 AI 更值得信赖 . 我们需要确保法规真正反映和激励这种行动,而不仅仅是坐在云端”,Surman 总结道。