2019 年,亚马逊的面部识别技术将新英格兰爱国者队的 Duron Harmon、波士顿棕熊队的 Brad Marchand 和其他 25 名新英格兰运动员与照片数据库进行了错误匹配,从而错误地将这些运动员识别为罪犯。
人工智能如何变得更好,公司及其客户何时才能信任它?
IBM 设计生产力部门的罗恩·波兹南斯基 (Ron Poznansky) 表示:“对人工智能系统的不信任问题是今年 IBM 年度客户和开发者大会的一个主题。” “坦率地说,大多数人不信任人工智能——至少不足以将其投入生产。 《经济学人》2018 年进行的一项研究发现,94% 的企业高管认为采用人工智能对于解决战略挑战非常重要; 然而,麻省理工学院斯隆管理评论在 2018 年发现,只有 18% 的组织是真正的人工智能“先驱”,在其产品和流程中广泛采用了人工智能。 这种差距说明了人工智能社区中一个非常现实的可用性问题:人们想要我们的技术,但在目前的状态下,它对他们不起作用。”
波兹南斯基认为缺乏信任是一个主要问题。
“人们还不信任人工智能工具有一些很好的理由,”他说。 “首先,存在偏见这一热点问题。 最近备受瞩目的事件理所当然地引起了媒体的广泛关注,帮助机器学习偏见的概念家喻户晓。 组织对实施可能最终产生种族主义、性别歧视或其他偏见输出的系统犹豫不决是有道理的。”
了解人工智能偏见
另一方面,波兹南斯基等人提醒企业,人工智能在设计上存在偏见,只要企业了解偏见的本质,他们就可以轻松地使用人工智能。
举例来说,当在欧洲进行一项识别新冠病毒解决方案的大型人工智能分子实验时,为了加快得出结果的时间,故意不讨论相关分子的研究被排除在外。
也就是说,当您的人工智能偏离其原本要解决的业务用例时,或者当机器学习等底层人工智能技术从数据模式中“学习”并形成不准确的结论时,可能会发生分析漂移。
找到一个中点
为了避免人工智能产生偏差的结果,当今的黄金标准方法是检查并重新检查人工智能的结果,以确认其与人类主题专家团队得出的结论的准确性在 95% 以内。 在其他情况下,公司可能会得出这样的结论:70% 的准确率足以让人工智能模型至少开始生成可供人类参考的建议。
在人工智能提供的准确度上达成适当的妥协,同时了解其有意和盲目的偏见点可能在哪里,是组织在使用人工智能时可以应用的中点解决方案。
找到平衡准确性和偏见的中点可以让公司做三件事:
他们可以立即开始在业务中使用人工智能,但需要注意的是,人类将进行审查,然后接受或拒绝人工智能的结论。
他们可以继续提高人工智能的准确性,就像用新功能和特性增强其他商业软件一样。
它们可以鼓励数据科学、IT 和最终业务用户之间的健康合作。
波兹南斯基说:“解决人工智能缺乏信任这一紧迫问题……首先要解决不信任的根源。” “为了解决偏见问题,数据集[应该]设计为扩展训练数据以消除盲点。”