英国政府公布了一个新的人工智能监管框架,旨在促进创新,同时保持公众信任。
科学、创新和技术大臣米歇尔·多内兰 (Michelle Donelan) 表示:“人工智能有可能使英国成为一个更智能、更健康、更快乐的生活和工作场所。 人工智能不再是科幻小说中的东西,人工智能的发展速度惊人,所以我们需要有规则来确保它的安全发展。
“我们的新方法基于强有力的原则,因此人们可以相信企业会释放这种明天的技术。”
人工智能监管白皮书中提出的框架基于以下五项原则:
安全——确保应用程序以可靠、安全和稳健的方式运行。
透明度和可解释性——部署人工智能的组织应该就人工智能的使用时间和方式进行沟通。 此外,他们应该能够解释系统的决策过程。
公平——确保与英国现行法律的兼容性,包括 2010 年平等法案和英国 GDPR。
问责制和治理——采取措施确保对人工智能进行适当监督。
可竞争性和补救——确保人们有明确的途径来对人工智能产生的结果或决定提出异议。
这些原则将由其行业的现有监管机构应用,而不是通过创建一个新的监管机构来应用。 政府已拨款 200 万英镑(270 万美元)资助一个 AI 沙箱,企业可以在其中测试 AI 产品和服务。
明年,监管机构将向组织和其他资源发布指南以实施这些原则。 还可以引入立法以确保原则得到一致考虑。
政府还就新流程发起了磋商,以改善监管机构之间的协调并评估框架的有效性。
律师事务所 Harbottle & Lewis 的技术、数据和数字主管 Emma Wright 评论道:
“我确实欢迎针对特定行业的法规,而不是涵盖 AI 的主要立法(例如欧盟提议的)。 然而,我担心这本质上是另一份咨询文件,呼吁监管机构在企业家和投资者寻求更大的监管确定性时提供更多指导。
随着 ChatGPT 的到来,人工智能的使用正成为主流,但现有监管机构的能力建设需求没有得到足够的重视,他们现在的任务是推动负责任的创新,同时不扼杀投资。
建立可信赖的人工智能将是获得更多采用的关键,而为企业家和投资者设定基本框架来运作与此并不矛盾。 尽管监管沙箱过去已成功用于其他垂直技术领域,例如金融科技,但问题是目前发布的许多人工智能工具在用于一般用途时会产生意想不到的后果——似乎很难看出真正的沙箱如何 环境将能够复制此类场景,并冒着损害用户对已被沙盒化但会产生歧视性结果或输出的 AI 工具的信任的风险。
在制定要遵循的基本框架时,可以采用支持创新的方法,例如联合国教科文组织关于道德人工智能的建议书(英国是该建议书的签署国),这感觉有点错失了错过调整目标的机会。 支持创新的环境以及负责任的人工智能使用在今天而不是在未来的某个时候意味着什么。”
英国的 AI 行业目前雇佣了 50,000 多名员工,到 2022 年为经济贡献了 37 亿英镑。英国提供 AI 服务和产品的公司数量是其他任何欧洲国家的两倍,每年都会创建数百家新公司。
在美国和中国之后,英国的科技行业总体上拥有世界第三大风险投资——超过德国和法国的总和——并且产生的 10 亿美元科技公司数量是任何其他欧洲国家的两倍多。
然而,有人担心人工智能可能对隐私、人权和安全以及使用人工智能工具做出影响人们生活的决策的公平性构成风险,例如评估贷款或抵押贷款申请。
白皮书中的提议旨在解决这些担忧,并受到企业的热烈欢迎,此前企业呼吁加强监管机构之间的协调,以确保在整个经济体中有效实施。
DeepMind 首席运营官 Lila Ibrahim 评论道:“人工智能有潜力以多种方式推动科学发展并造福人类,从应对气候变化到更好地理解和治疗疾病。 这种变革性技术只有在受到信任的情况下才能发挥其全部潜力,这需要本着负责任开拓精神的公私合作伙伴关系。
“英国提议的环境驱动方法将有助于监管跟上人工智能的发展步伐,支持创新并减轻未来风险。”
Rolls-Royce 首席技术官 Grazia Vittadini 补充说:“我们的业务和我们的客户都将受益于敏捷的、上下文驱动的 AI 监管。
“这将使我们能够继续引领安全关键型工业 AI 应用的技术和质量保证创新,同时继续遵守社会对 AI 开发人员要求的诚信、责任和信任标准。”
新框架旨在为公众提供保护,同时不扼杀人工智能在发展经济、改善就业和新发现方面的应用。
另外,今天发布的一封公开信——由埃隆·马斯克、史蒂夫·沃兹尼亚克和其他 1000 多名专家签署——呼吁停止“失控”的人工智能开发。