欧盟人工智能法案:你需要知道的

2023-05-15 0 1,088

欧盟人工智能法案:你需要知道的

欧盟委员会公布了可能是世界上最具影响力的法律框架之一的草案:欧盟人工智能法案已经将近一年了。 根据 Mozilla 基金会的说法,该框架仍在进行中,现在是积极参与塑造其方向的时候了。

Mozilla 基金会的既定使命是努力确保互联网仍然是一种对所有人开放和访问的公共资源。 自 2019 年以来,Mozilla 基金会将其互联网健康运动建设项目的很大一部分重点放在人工智能上。

我们会见了 Mozilla 基金会的执行董事 Mark Surman 和高级政策研究员 Maximilian Gahntz,讨论了 Mozilla 对人工智能的关注和立场、欧盟人工智能法案的关键事实及其在实践中的运作方式,以及 Mozilla 的改进建议和方法 让每个人都参与到这个过程中。

欧盟人工智能法案即将出台,即使你不在欧盟,这也是一件大事
2019 年,Mozilla 将 AI 确定为对互联网健康的新挑战。 理由是人工智能为我们和我们做出决定,但并不总是与我们一起:它可以告诉我们我们阅读了哪些新闻,我们看到了哪些广告,或者我们是否有资格获得贷款。

Mozilla 指出,人工智能做出的决定有可能帮助人类,但也会伤害我们。 人工智能可以放大历史偏见和歧视,将参与度置于用户福祉之上,并进一步巩固大型科技公司的力量并边缘化个人。

“过去几年,值得信赖的人工智能一直是我们的关键,因为数据和机器学习以及我们今天所说的人工智能是互联网是什么以及互联网如何与社会和所有领域交叉的核心技术和社会业务结构。 我们的生活”,苏尔曼指出。

随着人工智能越来越多地渗透到我们的生活中,Mozilla 同意欧盟的观点,即改变管理人工智能的规范和规则是必要的,Gahntz 在 Mozilla 对欧盟人工智能法案的反应中写道。

关于欧盟人工智能法案,首先要注意的是,它并不专门适用于欧盟组织或公民。 全球范围内可能会以与 GDPR 产生的影响类似的方式感受到涟漪。

欧盟人工智能法案适用于位于欧盟境内的人工智能系统的用户和供应商、在欧盟以外建立的供应商,这些供应商是欧盟境内人工智能系统投放市场或调试的来源,以及已建立的人工智能系统的供应商和用户 当系统生成的结果在欧盟使用时,在欧盟以外。

这意味着开发和部署人工智能系统的组织要么必须遵守欧盟人工智能法案,要么完全退出欧盟。 也就是说,欧盟人工智能法案在某些方面与 GDPR 有所不同——但稍后会详细介绍。

欧盟人工智能法案的另一个关键点是它仍在进行中,需要一段时间才能生效。 它的生命周期始于高级专家组的组建,正如 Surman 指出的那样,这与 Mozilla 对 Trustworthy AI 的关注不谋而合。 自 2019 年以来,Mozilla 一直在密切关注欧盟人工智能法案。

正如 Gahntz 指出的那样,自 2021 年 4 月发布欧盟人工智能法案的初稿以来,参与这一过程的每个人都在准备参与。 欧盟议会必须决定哪些委员会以及这些委员会中的哪些人将参与其中,而民间社会组织则有机会阅读文本并确立自己的立场。

正如 Gahntz 所说,我们现在所处的位置是激动人心的部分开始的地方。 这是欧盟议会在考虑从指定委员会和第三方收到的意见后制定其立场的时候。 一旦欧洲议会巩固了他们对“可信赖人工智能”一词的理解,他们将提交关于如何修改初稿的想法。

欧盟成员国将做同样的事情,然后议会、委员会和成员国之间将进行最后一轮谈判,届时欧盟人工智能法案将通过成为法律。 这是一条漫长而曲折的道路,根据 Gahntz 的说法,我们正在考虑至少一年的时间范围,再加上通过成为法律和实际生效之间的过渡期。

对于 GDPR,过渡期为两年。 因此,在欧盟人工智能法案生效之前,可能不会在 2025 年之前的任何时候。

人工智能系统的定义和分类
在进入欧盟人工智能法案的细节之前,我们应该停下来问问它到底适用于什么。 没有广泛认可的人工智能定义,因此欧盟人工智能法案提供了一个附件,定义了属于其范围内的技术和方法。

正如蒙特利尔人工智能伦理研究所所指出的那样,欧盟委员会选择了一个广泛而中立的人工智能系统定义,将它们指定为“使用附件一中列出的一种或多种技术和方法开发的软件,并且可以在给定的情况下 一组人类定义的目标,生成影响他们与之交互的环境的输出,例如内容、预测、建议或决策”。

欧盟人工智能法案附件中提到的技术包括机器学习方法和基于逻辑和知识的方法。 它们范围广泛,以至于招致批评“建议规范贝叶斯估计的使用”。 虽然在商业和研究需求与公民关注之间游刃有余,但这种说法似乎没有抓住拟议立法理念的要点:所谓的基于风险的方法。

在欧盟人工智能法案中,人工智能系统根据它们带来的感知风险分为 4 类:完全禁止不可接受的风险系统(尽管有一些例外情况适用),高风险系统受可追溯性、透明度和稳健性规则的约束,低风险系统 – 风险系统要求供应商的透明度,以及没有设定要求的最小风险系统。

因此,这不是监管某些技术的问题,而是根据应用程序构成的风险来监管这些技术在某些应用程序中的应用。 就技术而言,拟议的框架指出,可能需要加班加点地适应领域的发展。

排除在欧盟人工智能法案范围之外的是专门为军事目的开发或使用的人工智能系统。 在与欧盟或其一个或多个成员的国际执法和司法合作协议框架内使用人工智能系统的第三国公共当局和国际组织也不受欧盟人工智能法的约束。

操纵人类行为以剥夺用户自由意志的人工智能应用程序和允许欧盟成员国进行社会评分的系统被归类为构成不可接受的风险,并被彻底禁止。

高风险人工智能系统包括生物特征识别、关键基础设施(水、能源等)管理、用于教育机构分配或人力资源管理的人工智能系统,以及用于获取基本服务(银行信贷、公共服务、社会服务)的人工智能应用。 福利、正义等),用于警察任务以及移民管理和边境管制。

然而,生物特征识别的应用包括一些例外情况,例如寻找失踪儿童或在恐怖主义、人口贩运或儿童色情制品案件中寻找嫌疑人的位置。 欧盟人工智能法案规定,高风险人工智能系统应记录在由欧盟委员会维护的数据库中。

有限风险系统主要包括各种机器人。 对于那些,关键要求是透明度。 例如,如果用户正在与聊天机器人交互,则必须告知他们这一事实,以便他们可以就是否继续进行做出明智的决定。

最后,根据委员会的说法,不会对公民权利构成风险的人工智能系统(例如垃圾邮件过滤器或游戏)免于监管义务。

欧盟人工智能法案是获得可信赖人工智能的一种方式
这种基于风险的 AI 监管方法背后的主要思想有点让人想起欧盟根据其能效为家用电器设备贴标签的方法。 设备根据其能源效率特性进行分类,并应用从 A(最佳)到 G(最差)的标签。

但也有一些重要的区别。 最突出的是,虽然能源标签是为了让消费者看到和考虑,但人工智能系统的风险评估并不是为了同样的目标而设计的。 然而,如果 Mozilla 有办法,到欧盟 AI 法案生效时,这种情况可能会改变。

Gahntz 说,进行类比总是很有趣,但这里真正重要的是,基于风险的方法试图将监管对那些开发和部署几乎不关心的 AI 系统的人的影响降到最低。

“我们的想法是将注意力集中在棘手的地方,人们的安全、权利和隐私等方面存在风险的地方。这也是我们想要关注的部分,因为监管不是目的,也不是目的。” 本身。

我们希望通过我们的建议和围绕这一点的宣传工作来完成。 最终的欧盟 AI 法案加强了法规中侧重于减轻或防止风险实现的部分。

我们在其他地方的欧洲法律和法规中看到的其他基于风险的方法有很多类比。 但查看每个用例的特定风险也很重要。 这基本上意味着回答我们如何确保 AI 值得信赖的问题”,Gahntz 说。

Gahntz 和 Surman 强调,Mozilla 的建议是经过谨慎制定的,并且需要在此过程中进行尽职调查,以确保没有人受到伤害,并且 AI 最终会为所有人带来净收益。

在本文的第 2 部分,我们将继续阐述 Mozilla 提出的改进欧盟 AI 法案的建议,以及 Trustworthy AI 和 AI 变革理论的基本理念,以及如何参与对话。

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 欧盟人工智能法案:你需要知道的 https://www.7claw.com/56459.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务