随着对基于 AI 的决策和运营的依赖与日俱增,重要的是退后一步,问问是否可以采取一切措施来确保公平和减少偏见。 人工智能部署背后需要更多的意识和培训。 不仅适用于开发人员和数据科学家,还适用于产品经理、主管、营销经理和采购员。 这是 Acoustic 首席技术官 John Boezeman 的话,他分享了他对正确使用 AI 的紧迫性的见解。
问:企业为实现公平和消除人工智能结果的偏见所做的努力有多远?
Boezeman:试图确定 AI 中的偏差或偏斜是一个非常困难的问题,需要大量额外的关注、服务和财务投资,以便不仅能够检测,而且能够修复和补偿这些问题。 许多公司无意中在不同模型中使用了有偏见或不完整的数据; 理解并改变这种行为需要公司内部的文化变革和周密计划。
那些在明确的数据伦理原则下运作的人将处于有利地位,可以避免 AI 中的偏见,或者至少能够在识别出偏见时检测并补救。
问:公司是否做了足够的工作来定期审查他们的 AI 结果? 最好的方法是什么?
Boezeman:随着围绕 AI 可审计性提供新工具,我们将看到更多公司定期审查他们的 AI 结果。 如今,许多公司要么购买嵌入了 AI 特性或功能的产品,要么购买了该产品专有特性的一部分,这不会暴露可审计性。
公司还可以为特定用例提供基本的 AI 功能,通常是在 AI 发现使用级别。 然而,在每一种情况下,审计通常都是有限的。 审计真正变得重要的地方是人工智能的“推荐”和“行动”级别。 在这两个阶段,重要的是使用审计工具不要引入偏差和歪曲结果。
帮助审计 AI 的最佳方法之一是使用较大的云服务提供商之一的 AI 和 ML 服务。 其中许多供应商都拥有可让您跟踪此信息的工具和技术堆栈。 同样关键的是识别偏见或类似偏见的行为,将其作为数据科学家、人工智能和机器学习开发人员培训的一部分。 人们越多地了解要注意什么,公司就越能做好识别和减轻 AI 偏见的准备。
问:IT 领导者和员工是否应该接受更多培训和意识以减轻 AI 偏见?
博兹曼:当然。 数据科学家和 AI/ML 开发人员都需要有关偏差和偏斜的培训,但将此培训扩展到产品经理、高管、营销经理和采购员也很重要。
很容易陷入做你一直做的事情的陷阱,或者像许多行业过去所做的那样只追求以偏见为中心的方法。 但是通过围绕减轻 AI 偏见的培训,您组织中的员工将能够识别偏见,而不是相信 AI 产生的一切都是事实。 从那里,您的公司可以帮助减轻其影响。
问:人工智能和机器学习计划已经进行了好几年。 企业在最高效的采用和部署方面学到了哪些经验教训?
Boezeman:人工智能不是解决一切问题的灵丹妙药。 我已经看到许多尝试将 AI 用于任何用例,如果 AI 是正确的用例则独立,所有这些都是为了在不提供真正价值的情况下实现营销故事。 成功部署 AI 解决方案的诀窍是将数据质量与驱动决策的模型和算法的质量相结合。 简单地说,如果你把垃圾放进去,你就会把垃圾拿出来。 最成功的部署有清晰的用例和明确定义的数据来操作。
问:组织的哪些领域在 AI 方面取得了最大的成功?
Boezeman:人工智能有很多不同的阶段,但大多数可以归结为三个基本状态:发现、推荐和自动行动。 现在,我看到它最常使用的地方是发现——洞察力、警报、通知——空间。 系统会在此处告诉您某些事情正在发生异常或超出已知模式,或者某些事情正朝着您应该关注的方向发展。 人们信任这种交互和模型,如果需要证据,可以轻松协作。
例如,营销人员在发现空间中利用人工智能来确定他们的活动有多成功。 另一个例子是可以部署人工智能解决方案来检测欺诈或客户旅程问题的销售商。
我仍然看到很多犹豫的地方是在推荐和行动状态。 我曾经拥有一个产品,它根据许多数据点(从数量、盈利能力、减价时间到仓库中使用的存储空间)计算出产品的最佳价格并下令将其显示在网络店面中。 甚至这个产品也可以,如果你打开它,自动采取行动。 我们发现很多商户喜欢看推荐,但他们个人想采取行动,也想看到多个选项,最后,他们想看看系统为什么推荐一个选项的决策树。 我们刚上线的时候,并没有“系统为什么推荐XYZ?”的问题。 功能。 在我们提供一种方法让销售人员能够查看推荐的依据之前,他们并不信任它。
问:哪些技术或技术方法发挥最大作用?
Boezeman:在这个领域运营的许多公司每天都在发明新的、有影响力的技术。 Spark 和 Amazon Sagemaker 就是两个例子。 不过,发挥最大作用的技术是那些使您能够识别 AI 模型中的偏差的技术。 当 AI 算法存在偏差时,它们可能会导致不公平和不正确的结果。 通过能够看到系统中的偏差,您可以诊断并缓解这种情况。 随着行业的持续发展,这将成为每个技术堆栈需要支持的关键基线功能。