与食品、药品和汽车不同,我们还没有看到明确的法规或法律来指导美国的人工智能设计。 在没有标准指导方针的情况下,设计和开发 ML 模型的公司历来都依赖于他们自己的是非观念。
这即将改变。
随着欧盟最终确定其 AI 法案和生成 AI 继续快速发展,我们将看到人工智能监管格局从一般的、建议的框架转变为更永久的法律。
欧盟人工智能法案引发了商界领袖之间的重要对话:我们如何为更严格的人工智能法规做好准备? 我应该主动设计符合这个标准的人工智能吗? 美国要多久才能通过类似的规定?
继续阅读以更好地了解在不久的将来对公司的 AI 监管可能是什么样子。
欧盟人工智能法案将如何影响您的业务
与2018年发布的欧盟通用数据保护条例(GDPR)一样,欧盟人工智能法案有望成为人工智能监管的全球标准。 议会计划在 2023 年 3 月底之前对该草案进行投票,如果这个时间表得到满足,最终的 AI 法案可能会在年底前通过。
人们高度预测,人工智能法案的影响将超越欧盟边界(读作:布鲁塞尔效应),尽管它是欧洲法规。 在国际范围内运作的组织将被要求直接遵守该立法。 与此同时,美国和其他独立领导的公司将很快意识到遵守这项规定符合他们的最大利益。
我们已经开始在其他类似立法中看到这一点,例如加拿大的人工智能和数据法案提案以及纽约市的自动化就业法规。
人工智能系统风险类别
根据人工智能法案,组织的人工智能系统将分为三个风险类别,每个类别都有自己的一套指导方针和后果。
不可接受的风险。 达到这个级别的人工智能系统将被禁止。 这包括造成伤害的操纵系统、在公共场所用于执法的实时生物特征识别系统,以及所有形式的社会评分。
高风险。 这些人工智能系统包括求职者扫描模型等工具,并将遵守特定的法律要求。
有限和最小的风险。 这一类别包括当今企业使用的许多 AI 应用程序,包括聊天机器人和 AI 支持的库存管理工具,并且在很大程度上不受监管。 然而,面向客户的有限风险应用程序将需要披露正在使用人工智能。
人工智能监管会是什么样子?
由于 AI 法案仍处于起草阶段,其全球影响尚待确定,我们无法确定对组织的监管会是什么样子。 但是,我们确实知道它会因行业、您正在设计的模型类型以及它所属的风险类别而异。
监管可能包括与第三方的审查,您的模型将针对您尝试服务的人群进行压力测试。 这些测试将评估问题,包括“模型的性能是否在可接受的误差范围内?”和“您是否披露了模型的性质和用途?” ‘
对于拥有高风险人工智能系统的组织,人工智能法案已经概述了几个要求:
实施风险管理系统。
数据治理和管理。
技术文档。
记录保存和日志记录。
透明度和向用户提供信息。
人为监督。
准确性、稳健性和网络安全。
合格评定。
在欧盟成员国政府注册。
上市后监控系统。
我们还可以预期定期对模型进行可靠性测试(类似于对汽车进行电子检查)将成为 AI 行业中更广泛的服务。
如何为 AI 法规做准备
许多 AI 领导者在设计和开发 ML 模型时已经优先考虑信任和风险缓解。 你越早接受人工智能监管作为我们的新现实,你在未来就会越成功。
以下是组织可以采取的几个步骤来为更严格的 AI 监管做准备:
研究并教育您的团队了解将存在的监管类型,以及它如何影响您的公司现在和未来。
审核您现有的和计划中的模型。 它们符合哪个风险类别,哪些相关法规对您影响最大?
开发并采用一个框架来设计负责任的人工智能解决方案。
仔细考虑您的 AI 风险缓解策略。 它如何应用于现有模型和未来设计的模型? 您应该考虑哪些意外行为?
建立 AI 治理和报告策略,确保在模型上线之前进行多次检查。
鉴于《人工智能法》和未来不可避免的法规,合乎道德和公平的人工智能设计不再是“可有可无”,而是“必须有”。 您的组织如何为成功做好准备?