根据 Salesforce 人工智能道德实践首席架构师凯西·巴克斯特 (Kathy Baxter) 的研究,人工智能 (AI) 开发显然是企业的重中之重,预计到 2024 年全球人工智能支出将达到 1100 亿美元。 AI,80% 正在努力建立流程以确保负责任地使用 AI。 百特的研究还指出,93% 的消费者表示,公司有责任超越利润,对社会产生积极影响。 此外,79% 的员工会考虑离开道德败坏的雇主。 我与商业领袖就 AI 的未来影响进行的对话通常会引出核心价值观、指导原则以及对新兴技术(如机器学习、自然语言处理和聊天机器人、计算机视觉、深度学习和智能机器人)的道德使用。
作为 Salesforce 道德 AI 实践的首席架构师,Baxter 开发了以研究为依据的最佳实践,以教育 Salesforce 员工、客户和行业开发负责任的 AI。 她与外部 AI 和道德专家合作并合作,不断改进 Salesforce 政策、实践和产品。 在加入 Salesforce 之前,Baxter 曾在 Google、eBay 和 Oracle 的用户体验研究部门工作。 巴克斯特是 “”=””> 的作者。
根据 Baxter 的说法,开发符合道德规范的 AI 并不是可有可无,而是整个组织的责任。 Baxter 进一步指出,负责任地使用 AI 是企业的筹码。 Baxter 引用研究指出,86% 的消费者表示他们会更忠诚于一家表现出良好道德的公司,而 69% 的消费者表示他们会花更多的钱。
我请 Baxter 分享她的团队的发现,即根据他们在 Salesforce 中经过验证的方法,最好地建立符合道德规范的 AI 实践。 在 Salesforce 和 Tableau,Baxter 和她的团队与所有利益相关者(客户、员工、业务合作伙伴和我们的社区)密切合作,以负责任的方式开发和实施人工智能,旨在减少公司和客户的偏见和风险。
道德人工智能实践核心价值观
在我们描述 AI 成熟度模型之前,Baxter 和她的团队认为必须明确定义和传达核心价值观。 核心价值观始于这样一种观念,即每个人都应该获得人工智能的好处。 这是他们研究团队的承诺声明:“我们相信人工智能的好处应该为每个人所用。但仅仅提供人工智能的技术能力是不够的——我们还有重要责任确保人工智能的安全性和包容性 为所有人。我们认真对待这一责任,并致力于为我们的员工、客户和合作伙伴提供他们安全、准确和合乎道德地开发和使用人工智能所需的工具。”
5 个核心价值支柱进一步定义了 AI 实践承诺:
负责任:为维护人权和保护我们委托的数据,我们与人权专家合作,教育、授权并与客户和合作伙伴分享我们的研究。
问责制:为了建立人工智能问责制,我们寻求利益相关者的反馈,接受道德使用咨询委员会的指导,并组建我们自己的数据科学审查委员会。
透明:我们努力实现模型的可解释性和清晰的使用条款,并确保客户控制自己的数据和模型。
赋权:无障碍人工智能促进增长和增加就业,造福整个社会。
包容性:人工智能应该尊重所有受影响者的价值观,而不仅仅是其创造者的价值观。 为实现这一目标,我们使用不同的数据集测试模型,寻求了解它们的影响并建立包容性团队。
道德人工智能实践成熟度模型
人工智能实践成熟度模型分为四个阶段:临时、有组织和可重复、管理和可持续以及优化和创新。
临时:在成熟度模型的临时阶段,个人开始识别意想不到的后果,并非正式地倡导需要在公司的 AI 中考虑偏见、公平、问责制和透明度。 这种倡导引起了人们的广泛关注,使人们能够停下来问,而不仅仅是“我们能做到吗?” 但是“我们应该这样做吗?” 最初的动力在鼓励下变得更容易。 在内部社交媒体渠道上创建讨论组是分享知识、兴奋和确定工作倡导者的好方法。 非正式技术讲座是另一个极好的资源。
Baxter 提醒我们,从历史上看,这种方法的早期倡导者已经在他们的公司内担任全职角色,以建立符合道德规范的 AI 实践。 创建和填补这个正式角色的过程可能需要一年或更长时间才能在领导者之间建立信任并证明负责任地开发人工智能的重要性。 然而,随着越来越多的高管看到负责任的人工智能实践的重要性,没有内部倡导者的公司现在正在寻求从外部招聘。
整个团队和专门的预算不会在一夜之间出现,因此由单独的道德专家进行的道德审查通常是临时的,并且仅限于已经认识到负责任的 AI 实践重要性的个人或小团队。 这些小的成功对于建立“胜利”组合和在整个公司赢得更多拥护者至关重要。
有组织且可重复:在这个阶段,高管的支持已经建立,公司正在发展一种文化,奖励负责任的 AI 实践。 这种文化创造的一部分是制定一套道德原则和准则。 几乎每家拥有道德人工智能团队的公司——包括 Salesforce (einstein.ai/ethics)——都发布了一套指导原则。
Baxter 提醒我们,简单地采用一套通用的原则并将它们发布在您公司的网站上可能只不过是“道德清洗”并且导致最小的变化。
管理和可持续发展:根据公司的规模和对现有员工的成功教育,您可以将重点转移到确保新员工了解他们在确保负责任的 AI 方面的作用。 许多公司的员工都要参加很多强制性培训,因此值得考虑强制性培训的数量。 每个从事 AI 工作的员工都应该至少了解您的 AI 道德原则以及任何客户对如何使用 AI 的限制(例如,在 Salesforce,我们不允许我们的视觉 AI 用于面部识别)。
此时,您的公司已经在整个产品生命周期中引入了道德检查点。 管理层实施并要求执行正式流程,如后果扫描研讨会、道德画布、危害建模、社区陪审团以及创建模型卡(如模型的营养标签)或情况说明书等文件。 随着您实践的成熟,新流程和文档的添加可能会增加。
百特提醒我们平等和包容的重要性。 “在人权、伦理和哲学、用户研究、人工智能、政策和法规以及数据科学、产品和项目管理方面的专业经验的结合,也将产生更好的结果。多样性是你的超级力量,因为不同的价值体系需要不同的 公平决策的机制,”巴克斯特说。
巴克斯特也是独立的坚定拥护者。 她提醒我们,在您的 AI 道德实践中,诚实和正直需要独立性。 “创造成功实践的一部分是理解批判观点的内在价值并将其纳入关键决策。创建外部人工智能伦理咨询委员会可以通过提供替代观点和避免思想回音室来提供重要价值,”巴克斯特说 .
优化和创新:这就是你努力的最终状态。 但我们有意将我们的工作称为“实践”,因为目标是不断改进——在这项工作中没有“完美”这样的东西。 随着新的 AI 应用程序和方法的开发,新的道德风险被识别出来,可能需要新的方法来减轻它们。
为了创建端到端的设计伦理,成熟的 AI 伦理实践将伦理 AI 产品开发和工程与隐私、法律、用户研究、设计和可访问性合作伙伴相结合,以创建开发、营销、 AI 的销售和实施。
“你可能也已经从一个大型的集中式 AI 伦理团队转变为一个混合或中心辐射模型。在混合模型中,一个集中的伦理团队拥有标准和新流程的创建,而个体伦理学家则嵌入到 AI 产品团队中 提供专门的、特定于上下文的和及时的专业知识。没有一种“正确”的模型;这取决于您公司的规模、构建 AI 应用程序的产品团队的数量、这些产品的多样性、您公司的文化,以及 更多,”巴克斯特说。
Baxter 还就指标及其在开发 AI 驱动的产品和服务中发挥的重要作用向公司发出警告。 “产品路线图和资源应明确要求解决道德债务问题,并定期开发帮助客户负责任地使用人工智能的功能。通过事先建立指标,现在可以为发布设置最低道德门槛以阻止发布 任何不符合该门槛的新产品或功能,”巴克斯特说。
强大的 AI 道德实践将包括多个成功指标,这些指标在新产品发布之前得到深入理解和定期讨论。
“道德 AI 领域相对较新,我们都在一起学习,因为我们了解与某些 AI 技术相关的风险和危害或将它们应用于不同人群。拟议的成熟度模型将随着我们理解和实践的发展而改变,并且它是 我们希望我们能够共同创造这个领域,”巴克斯特说。
本文由 Kathy Baxter 合着。 作为 Salesforce 道德 AI 实践的首席架构师,Kathy 开发了以研究为依据的最佳实践,以教育 Salesforce 员工、客户和行业开发负责任的 AI。 她与外部 AI 和道德专家合作并合作,不断改进 Salesforce 政策、实践和产品。 在加入 Salesforce 之前,她曾在 Google、eBay 和 Oracle 的用户体验研究部门工作。 她在佐治亚理工学院获得了工程心理学硕士学位和应用心理学学士学位。 她的书“了解你的用户”的第二版于 2015 年 5 月出版。