上周,欧洲立法者距离通过一项开创性的人工智能法律又近了一步,推进了旨在为快速发展但监管程度最低的技术设定基准的立法。
6 月 14 日星期三,欧洲议会批准了名为《人工智能法案》的立法草案。 该立法被誉为世界上第一部全面的人工智能法,为欧盟 27 个成员国采用和使用人工智能技术提供了规则手册。
《人工智能法案》提议禁止在欧洲进行高风险人工智能实践,包括在公共场所使用实时面部识别技术以及欧洲议会认为“具有侵入性和歧视性”的其他人工智能系统,例如社会评分系统和模型 采用“潜意识或有目的地操纵技术”。
该立法草案还对 ChatGPT 等生成型人工智能模型提出了更严格的要求,这些模型将被迫披露机器生成的内容,并在其模型设计中内置措施以防止非法内容的生成。
人工智能法的先例
欧洲的开创性立法旨在为世界各地的人工智能监管开创先例,人工智能和机器学习工具使用的爆炸式增长让政策制定者争先恐后地跟上。
欧洲议会议员迪尔德丽·克鲁恩 (Deirdre Clune) 称赞《人工智能法案》是“一项突破性的立法”,有可能成为“事实上的全球监管人工智能的方法”。
6 月 13 日,Clune 在向欧洲议会议员发表讲话时表示:“这是全球首批监管人工智能的尝试之一……人工智能有能力解决最紧迫的问题,包括气候变化或严重疾病,我们希望为此奠定基础 在欧盟这里。”
Clune 补充道:“我们不能完全靠自己做到这一点,但我们应该成为确保以负责任的道德方式开发和使用这项技术的领导者,同时支持创新和经济增长。”
基于风险的人工智能规则方法
欧盟的立法草案提出了一种基于风险的人工智能监管方法,根据人工智能系统对用户的潜在威胁对人工智能系统进行分类,这是一个长期以来一直引起激烈争论的话题。
欧盟法律将严格禁止被视为具有“不可接受”风险水平的人工智能系统,但少数例外。 根据该法案草案,被视为不可接受并因此被禁止的人工智能系统和功能包括:
对人或特定弱势群体的认知行为操纵:例如鼓励儿童危险行为的声控玩具。
社会评分:根据行为、社会经济地位或个人特征对人们进行分类。
实时和远程生物识别系统:面部识别工具是一个可能的例子。
远程生物识别系统的一个例外是在“严重延迟”之后进行身份识别的情况下起诉严重犯罪,尽管此类案件需要法院批准。
高风险人工智能系统包括用于玩具和汽车等欧盟监管产品的人工智能系统,以及生物识别、关键基础设施管理、就业和执法等特定领域。 根据新的欧盟规则,这些系统必须在欧盟数据库中注册。
有可能在政治竞选中影响选民的人工智能系统,以及社交媒体平台使用的推荐系统中的人工智能系统,也被列入《人工智能法案》的高风险清单中。
与此同时,根据新的欧盟规则,ChatGPT和Google Bard等生成式人工智能工具以及其他被视为风险有限的人工智能系统将被要求采取更强有力的保障措施。 这些保障措施包括更严格的透明度要求,并使用户能够就是否以及如何与人工智能模型交互做出明智的决定。
用户在与人工智能交互时必须得到通知,并且在与人工智能应用程序交互后还必须能够选择停止或继续使用人工智能应用程序。
“我们在这里需要提供的绝对最低限度是透明度,”克鲁恩说。 “必须明确的是,这些内容不是人类制作的。 我们还更进一步,要求这些大型模型的开发人员更加透明,并与提供商分享他们的信息以及这些系统是如何训练和开发的。 这应该解决并改变这些系统的环境可持续性。”
科技界反应不一
尽管欧洲《人工智能法案》的最终目标是以平衡安全性、透明度与创新潜力的方式管理人工智能的使用,但科技界成员表示担心,加强审查和对违反规则的潜在处罚可能会限制创新。
网络安全公司 Venafi 生态系统和社区副总裁 Kevin Bocek 认为,欧洲议会“直接针对硅谷的人工智能创新”,并警告“这可能对美国企业及其投资者产生巨大影响”。
Bocek 告诉 TechRepublic:“欧盟将大幅限制当前每周发布产品和每日更新模型的人工智能方法。” “欧盟对透明度、认证和安全的要求与目前软件和云提供商的创新方式不一致。 这为欧洲初创公司和开源软件在人工智能领域发挥比我们目前看到的更大的作用开辟了一条道路。”
对于在欧洲运营但总部设在其他地方的公司来说,欧盟的新规定也可能让事情变得更加棘手。
软件开发公司 Informatica 负责欧洲、中东和非洲和拉丁美洲平台销售的集团副总裁 Greg Hanson 向 TechRepublic 表示,欧洲的人工智能法案将要求美国和非欧盟企业对其人工智能模型所依据的数据来源建立全面的可见性 旨在确保合规性。
汉森告诉 TechRepublic:“对于数据跨越国际边界的组织(这是大多数组织)来说,他们现在需要全面了解数据的处理方式和地点,以满足不同的地理法规。”
“例如,总部位于美国但在欧洲运营的组织需要充分了解其数据的质量,并能够通过其数据供应链对其进行全面追踪……这意味着需要数据的准确性、清晰度、沿袭性和治理 将会加剧。”
《人工智能法案》包括对根据开源许可提供的研究活动和人工智能组件的规则的豁免。
为了帮助确保企业能够有效利用人工智能,同时保护公民权利,公共当局将建立监管沙箱,以便在部署新的人工智能系统之前对其进行测试。
与此同时,公民将拥有更大的权利对人工智能系统提出投诉,并获得基于高风险人工智能系统的决策的解释,改革后的欧盟人工智能办公室将负责监督规则手册的执行情况。
尽管如此,数字化转型顾问、《数字化业务转型的人性化一面》一书的作者卡马莱斯·拉迪警告称,除非法案草案中的限制得到迅速解决,否则监管机构将“继续追赶游戏”。
拉迪告诉 TechRepublic:“该法案正在采用传统的监管和合规方法来应对动态且快速变化的生成式人工智能领域。”
“该法案没有充分解决有关版权的话题,即使从围绕版权边界的争论和定义仍在讨论的角度来看也是如此。”
拉迪还指出,鉴于目前使用基于人工智能的解决方案或计划在不久的将来使用基于人工智能的解决方案的公司数量众多,人工智能法案的实施将是“一场噩梦”。 “申请审查和合格评定将是一项艰巨的任务,从长远来看,依靠自我评估是不够的,”她补充道。
“公司可能需要对其数据收集和管理实践进行重大改变,以满足立法规定的新数据隐私标准。”
新法什么时候通过?
欧盟希望在 2023 年底之前敲定《人工智能法案》,但即使成功,新立法也预计几年内不会生效——可能在 2026 年左右。
无论在此期间需要解决哪些复杂问题,汉森表示,他欢迎欧洲具有里程碑意义的人工智能立法的出台。
汉森表示:“欧盟监管人工智能系统数据的决定是明智的立法举措。” 他说:“它不仅会保护能够推动经济增长的技术的潜力,而且会保护企业的本质。”
“尤其是人工智能,将数据准确性置于刀刃上。 不正确的数据最终会助长人工智能模型,将对品牌产生负面影响。 但准确、值得信赖、及时的数据将为组织提供急需的竞争优势并推动组织发展。”