对抗 AI 中的偏见始于数据

2023-05-11 0 429

对抗 AI 中的偏见始于数据

推动提供公正和负责任的人工智能的努力令人钦佩,但仍有许多障碍需要克服。 最重要的是,人工智能的公平程度取决于其中的数据。

鉴于解决人工智能偏见和不公平问题进展缓慢,商业和技术领导者可能最终达成共识,即他们需要专注于更“负责任”的人工智能方法。 最近由 Appen 发布并由 The Harris Poll 进行的一项针对 504 名 IT 高管的调查发现,人们对数据的关注度越来越高,这些数据正在越来越多地推动有关客户、市场和机会的决策。 它还暗示这两种类型的领导者都认识到,他们拥有的数据往往存在问题,会对人员、社区和企业造成损害。

麦肯锡 2021 年的一项调查发现,即使在最积极主动的公司中,大多数公司也尚未采取措施消除人工智能的偏见。

例如,47% 的受访者(不到一半)报告说他们扫描训练和测试数据以检测受保护特征和属性的代表性不足。

同样百分比的人报告说,他们组织中的数据专业人员在数据摄取期间积极检查是否存在倾斜或有偏见的数据。 只有 36% 的受访者表示,数据专业人员会在模型开发的多个阶段主动检查是否存在倾斜或有偏见的数据。

Appen 调查表明,获取高质量数据是创建 AI 的障碍。 大多数人(51%)表示数据准确性对其 AI 用例至关重要——但只有 6% 的人表示实现了完整的数据准确性(超过 90%)。 “许多人面临着试图用糟糕的数据集构建伟大的人工智能的挑战,”该调查的作者说。 “要成功构建人工智能模型,组织需要准确和高质量的数据。不幸的是,商业领袖和技术专家报告说,在实现数据准确性方面,理想与现实之间存在巨大差距。”

尽管如此,Appen 的调查发现,公司正在将注意力转移到“负责任的”人工智能上。 “数据伦理不仅仅是做正确的事,”该调查的作者指出。 “这是关于维护价值链上从贡献者到消费者的每个人的信任和安全。” 几乎所有人(93%)表示他们认为他们需要提供负责任的人工智能。 他们报告说,重点是提高人工智能项目背后的数据质量,以推广更具包容性的数据集,这将有助于消除偏见和不公平。 十分之八的受访者将数据多样性描述为极其重要或非常重要,95% 的人认为合成数据将在创建包容性数据集方面发挥关键作用。

当然,说起来容易做起来难。 至少 42% 的技术专家表示,AI 生命周期数据来源阶段非常具有挑战性。 此外,90% 的受访者表示他们至少每季度对模型进行一次重新训练。

这也要求将人类留在 AI 循环中。 人们对人在回路机器学习的重要性达成了强烈的共识,81% 的人表示它非常或极其重要,97% 的人同意人在回路评估对于准确的模型性能很重要。

有趣的是,在理解人工智能挑战方面,数据科学家和商业领袖之间的差距逐年缩小。 该调查的作者指出:“强调数据,尤其是与应用场景相匹配的高质量数据,对于 AI 模型的成功有多重要,已将团队聚集在一起以解决这些挑战。”

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 对抗 AI 中的偏见始于数据 https://www.7claw.com/56262.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务