CXO 如何驾驭此路线图以实现负责任的 AI

2023-05-22 0 827

CXO 如何驾驭此路线图以实现负责任的 AI

近日,由美国大公司CEO组成的颇具影响力的商业圆桌会议发布了负责任的人工智能路线图。 由于欧洲即将出台的人工智能法案和基于价值观的消费者的需求等市场力量,许多公司已经在考虑负责任的人工智能,但这一公告将把对话提升到最高管理层。

一些原则是令人耳目一新的规定,例如“为多样性而创新”。 其他的,例如“减轻不公平偏见的可能性”,过于模糊或不完整而无用。 对于有兴趣采用任何或所有这些原则的技术和商业领袖来说,细节决定成败。 以下是我们对每项原则的简要介绍:

为多元化而创新。 当构思和开发 AI 系统的人都彼此相似时,必然会有明显的盲点。 雇用不同的团队来开发、部署、监控和使用 AI 有助于消除这些盲点,这是我们 Forrester 自 2018 年发布第一份 AI 伦理报告以来一直推荐的做法。
减轻不公平偏见的可能性。 公平性有 20 多种不同的数学表示形式,选择正确的一种取决于您的策略、用例和公司价值观。 换句话说,公平存在于旁观者的人工智能中。
设计并实现透明度、可解释性和可解释性。 可解释人工智能 (XAI) 有许多不同的风格——透明度依赖于完全透明的“玻璃盒”算法,而可解释性依赖于解释不透明系统(如深度神经网络)如何运作的技术。
投资于面向未来的 AI 劳动力。 人工智能更有可能改变大多数人的工作而不是消除它们,但大多数员工还没有准备好。 他们缺乏拥抱人工智能的技能、意愿和信任。 投资于机器人商数——一种准备程度的衡量标准——可以让员工为与人工智能并肩工作做好准备。
评估和监控模型的适用性和影响。 对于面临数据漂移危险的公司来说,这场大流行病是一个现实世界的教训。 公司需要采用机器学习操作 (MLOps) 来监控 AI 的持续性能,并考虑使用偏见赏金进行众包偏见识别。
负责任地管理数据收集和数据使用。 虽然 Business Roundtable 框架强调数据质量和准确性,但它忽视了隐私。 了解人工智能与个人数据之间的关系对于负责任地管理人工智能至关重要。
设计和部署安全的 AI 系统。 没有强大的网络安全和隐私实践,就没有安全的人工智能。
在全公司范围内鼓励负责任的 AI 文化。 一些公司开始采取自上而下的方法,通过任命首席信托官或首席道德官来培养负责任的人工智能文化。 我们希望在来年看到更多这样的任命。
调整现有的治理结构以应对 AI。 环境数据治理是一种将数据治理融入日常数据交互并根据个人意图智能调整数据的策略,非常适合 AI。 在 AI 治理的背景下映射您的数据治理工作。
在整个组织中实施 AI 治理。 在许多组织中,治理已成为一个肮脏的词。 那不仅是不幸的,而且是相当危险的。 了解如何克服治理疲劳。

少了什么东西

与商业圆桌会议的路线图一样稳健且善意,它缺少公司必须接受以负责任地采用 AI 的两个关键要素:

通过严格的尽职调查降低第三方风险。 大多数公司都与第三方合作采用 AI——通过购买第三方 AI 解决方案或使用来自第三方的 AI 构建块开发自己的解决方案。 无论哪种情况,第三方风险都是真实存在的,需要降低。 我们的报告 AI Aspirants:Caveat Emptor 解释了在复杂的 AI 供应链中降低第三方风险的最佳实践。

测试 AI 以降低风险并增加业务价值。 注入人工智能的软件引入了不确定性,需要对各种模型和自动软件之间的交互进行额外测试。 Forrester 开发了一个基于业务风险的测试策略框架,并建议所需测试的级别和类型。

对负责任的人工智能的强调不会很快消失。 投资于人员、流程和技术以确保以合乎道德和负责任的方式采用 AI 的公司将在未来证明其业务免受监管或声誉的破坏。

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 CXO 如何驾驭此路线图以实现负责任的 AI https://www.7claw.com/56665.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务