SAS Institute 已将其数据分析管理平台与新加坡金融管理局 (MAS) 发布的软件工具包相集成,以帮助金融机构确保他们以负责任的方式使用人工智能 (AI)。 此举旨在解决这些企业面临的共同挑战,纳入管理人工智能道德使用的核心原则。
MAS 在 2 月推出了开源工具包,以根据四个原则(公平、道德、问责制和透明度,即 FEAT)自动化评估公司 AI 采用情况所需的流程。 该工具包由 Veritas 联盟开发,允许插件与金融机构的 IT 系统集成。
SAS 周三表示,其分析管理平台 Viya 与 Veritas 工具包的集成将能够在分析模型中评估 FEAT 原则,从而利用 Viya 中的自然语言生成和工作流功能。 SAS 平台还与工具包一起使用以增强自动化。
SAS 亚太区 AI 和分析主管 Manisha Khanna 表示,新加坡企业通常难以根据 Veritas 原则实施对 AI 的采用。 与工具包的集成有助于降低复杂性,例如,通过自动识别敏感属性来确保合规性。
Khanna 说,它还促进了“可解释的 AI”决策流程,并补充说 AI 模型生成的结果会自动标记为基于文本的解释,说明这些结果是如何确定的。
此外,监管和审计报告可以自动填充,进一步提高员工的工作效率,她说。
SAS 新加坡董事总经理 Lim Hsin Yin 指出,由于信任和平衡,负责任的 AI 的采用率很低,其中企业需要对技术有信任,并在企业盈利能力与社会责任之间取得平衡,以便合乎道德地采用 AI。
Lim 说,与 MAS 的合作旨在解决这个问题。
SAS 的首席数据伦理实践官 Reggie Townsend 说:“在这些时候,监管框架的需求不仅重要,而且紧迫。技术提供商和监管机构都可以发挥关键作用 确保人工智能的发展以人为中心,以确保对我们的社会产生积极影响。”
Townsend 表示,人工智能和机器学习应用程序会随着时间的推移而学习,并可能将社会置于他们无法预料的场景中。 因此,需要立法来管理这一点,同时人工智能“负责任的创新”的定义也在不断演变,他说。
这与以前的转型没有什么不同,例如,当汽车首次出现并与马车并排行驶在街道上并且没有交通信号灯时。
他说,SAS 已经成立了一个内部运作的监督委员会,以确保必要的控制措施到位,以帮助软件供应商降低自身风险并负责任地应用人工智能。 有时,这意味着放弃某些客户部署,因此它的平台不是它不想进入的生态系统的一部分,他补充说。
当被问及微软和 IBM 等禁止向执法部门出售面部识别技术的供应商时,Townsend 表示 SAS 没有画出这样的“强硬路线”,因为使用人工智能背后的背景很重要。 例如,在促进护照认证方面采用面部识别技术提供了积极的成果。
他补充说,SAS 建立的内部流程有助于确保标记违反其负责任的 AI 使用原则的实施。
MAS 副首席金融科技官兼数据和技术架构执行董事 Damien Pang 表示,Veritas 联盟自成立以来已经发展到包括 30 多个实体。 他说,这反映了业界对通过 FEAT 原则推动对人工智能使用的信任的强烈兴趣。
当被问及工具包的使用率时,Pang 表示 MAS 没有跟踪下载数量,因为这不一定是实际使用的准确指示。
他敦促组织了解负责任地使用人工智能需要什么。 他补充说,FEAT 原则将有助于建立消费者信任,这对于推动数字服务的采用和使企业能够利用数据更好地为客户服务至关重要。