开发人员和数据科学家当然是人,但他们创建的系统不是——它们只是基于代码的人类推理的反映。 让人工智能系统提供公正的结果并确保明智的业务决策需要一种涉及大多数企业的整体方法。
IT 人员和数据科学家不能——也不应该——在人工智能方面独当一面。
越来越多的人希望将 AI 扩展到系统开发的范围之外,并将其扩展到业务套件中。 例如,在 AI 峰会最近的一次小组讨论中,小组成员一致认为,企业领导者和管理者不仅需要质疑通过 AI 做出的决策的质量,还需要更积极地参与决策制定。 (我共同主持了会议并主持了小组讨论。)
Aible 的首席技术官 Rod Butters 坚持认为,需要有系统化的方法来开放人工智能开发和建模过程。 “当我们告诉数据科学家出去创建模型时,我们是在要求他们成为读心者和算命先生。数据科学家正在努力做正确的事,创建一个负责任的可靠模型,但基于什么 ?,“ 他说。
“仅仅创建一个伟大的模型并不一定能解决所有问题。”
那么我们如何纠正巴特斯描述的情况并解决潜在的偏见或不准确之处呢? 显然,这是一个需要在整个企业领导层范围内解决的挑战。 一直承载着大部分 AI 重量的 IT 无法独自完成。 整个行业的专家都敦促开放 AI 开发,让更多的人参与进来。
“给 IT 领导者和员工增加负担是错误地将一系列实质性的、组织范围内的道德、声誉和法律问题概括为技术问题,”Virtue 首席执行官兼 Bizconnect 顾问 Reid Blackman 说。 “AI 中的偏见不仅仅是一个技术问题;它与各个部门交织在一起。”
Blackman 继续说道,迄今为止,在打击 AI 偏见方面做得还不够。 “尽管人们注意到有偏见的算法,但解决这个问题的努力却很少。标准方法——当然除了什么都不做——是使用各种工具来查看各种商品和服务如何分布在多个 亚人群,最明显的包括与种族和性别有关的群体;或利用一系列定量指标来确定分布是公平还是有偏见。”
消除人工智能中的偏见和不准确需要时间。 “大多数组织都明白,人工智能的成功取决于与这些系统的最终用户建立信任,这最终需要公平和公正的人工智能算法,”爱迪德首席技术官兼技术运营高级副总裁彼得奥格尔说。 然而,解决这个问题比简单地承认问题存在并谈论它要复杂得多。”
需要在数据中心或分析站点之外采取更多行动。 “数据科学家缺乏培训、经验和业务需求来确定哪些不兼容的公平性指标是合适的,”布莱克曼说。 “此外,他们往往缺乏影响力,无法将他们的担忧提升给知识渊博的高级管理人员或相关主题专家。”
Blue Prism 美洲区总裁兼总经理 Patrick Finn 说,是时候做更多的事情了,“不仅要在产品上线时,还要在测试期间和任何重大项目之后审查这些结果”。 “他们还必须对技术人员和业务人员进行培训,让他们了解如何减轻 AI 内部以及人力团队内部的偏见,使他们能够参与改进组织的 AI 使用。这是自上而下和自下而上的努力 通过人类的聪明才智:消除明显的偏见,这样人工智能就不会将其纳入其中,因此不会减慢工作速度或恶化某人的结果。”