减少 AI 倦怠的 8 种方法

2023-05-03 0 573

减少 AI 倦怠的 8 种方法

负责任和有道德的人工智能已经成为我们这个时代的热点问题,尤其是当人工智能渗透到决策和自动化的各个方面时。 根据最近的一项调查,35% 的公司现在报告在其业务中使用人工智能,42% 的公司正在探索该技术。

IBM 的同一项调查发现,信任极其重要——五分之四的受访者表示能够解释他们的 AI 如何做出对他们的业务很重要的决策。

然而,AI 仍然是代码——1 和 0。 正如我和我的合著者 Constellation Research 的战略家 Andy Thurai 在最近的一篇哈佛商业评论文章中所解释的那样,它没有同理心,而且经常缺少上下文。

它有可能产生有偏见和有害的结果。 随着人工智能在决策链中向上移动——从简单的聊天机器人或预测性维护到协助执行或医疗决策——需要进行清算。

另外:构建人工智能的人是最需要人工智能的人

也就是说,人工智能的开发者、实施者、用户和支持者需要能够展示他们的工作,解释决策是如何做出的,并能够不断适应新的场景。

然而,负责任的人工智能并不容易。 这意味着压力——尤其是对 AI 团队而言。 正如 Melissa Heikkilä 在《麻省理工科技评论》中指出的那样,“倦怠在负责任的 AI 团队中变得越来越普遍。” 最大的组织已经“投资于评估我们的生活、社会和政治系统如何受到这些系统的设计、开发和部署方式影响的团队。” 对于中小型公司和初创公司,这意味着这些责任落在了开发人员、数据工程师和数据科学家身上。

Heikkilä 发现,结果——即使是在最大的公司——“从事负责任人工智能工作的团队往往只能自生自灭”。 “这项工作可能与内容审核一样让人心力交瘁。最终,这会让这些团队中的人感到自己被低估了,这会影响他们的心理健康并导致倦怠。”

另外:人工智能的真正目标可能不再是智能

近年来 AI 的采用速度已将压力推高到一个非常大的水平。 AI 已经从实验室转移到生产水平,“比过去几年的预期更快,”Thurai 说,他一直是负责任的 AI 的积极倡导者。 管理负责任的人工智能“如果他们被迫调整内容、决策和数据,这些内容、决策和数据有悖于他们的信仰、观点、观点和文化,同时试图在中立和他们的信仰之间保持微妙的界限,那么管理这些人工智能可能会特别耗费精力。鉴于事实 人工智能 24x7x365 工作,人工智能做出的决定有时会改变生活,在这些领域的循环中的人类应该跟上可能导致倦怠和疲惫的事情,这可能导致容易出错的判断和决定。 “

他补充说,法律和治理“还没有赶上人工智能”。 “再加上许多企业没有适当的 AI 道德和 AI 治理程序和指南,这使得这个过程变得更加复杂。”

他说,除此之外,法院和法律系统对 AI 输出的潜在挑战“开始实施重罚并迫使公司改变他们的决定”。 “这对于试图在人工智能系统上执行规则的员工来说压力尤其大。”

高层的支持也缺乏,压力越来越大。 麻省理工学院斯隆管理评论和波士顿咨询集团发表的一项针对 1,000 名高管的研究证实了这一点。 然而,该研究发现,虽然大多数高管同意“负责任的人工智能有助于减轻技术风险——包括安全、偏见、公平和隐私问题——但他们承认未能对其进行优先排序。”

那么,人工智能的支持者、开发人员和分析师如何解决潜在的倦怠问题,一种与海潮作斗争的感觉? 以下是一些减轻人工智能引起的压力和倦怠的方法:

让商业领袖了解不负责任的人工智能的后果。 未经过滤的 AI 决策和输出会面临诉讼、监管和破坏性决策的风险。 “高管们需要将符合道德和负责任的 AI 支出成本视为改善公司责任和风险状况的一种手段,而不是成本中心,”Thurai 说。 “虽然现在花更少的钱可以提高他们的底线,但即使是一项责任或法院判决也会使这些投资带来的节省相形见绌。”
推动适当的资源。 负责任的 AI 审查引起的压力是一种新现象,需要重新考虑支持。 “科技公司的许多心理健康资源都集中在时间管理和工作与生活的平衡上,但对于从事情感和心理上不和谐话题的人来说,需要更多支持,”Heikkilä 写道。
与企业密切合作,确保负责任的 AI 成为企业的首要任务。 “对于每家实施 AI 的公司,也必须有负责任的 AI,”Thurai 说。 他引用了 MIT-BCG 的研究(如上所述),该研究发现只有 19% 的公司将人工智能作为其首要战略重点,致力于负责任的人工智能项目。 “它应该接近 100%,”他说。 需要鼓励经理和员工采用包含道德、道德和公平的整体决策。
主动寻求有关负责任的 AI 决策的帮助。 “让专家做出符合道德的 AI 决策,而不是 AI 工程师或其他受过足够教育而无法做出此类决策的技术人员,”Thurai 说。
让人类参与其中。 始终在 AI 决策过程中提供出口。 对系统重新设计保持灵活和开放的态度。 SAS、Accenture Applied Intelligence、Intel 和 Forbes 进行的一项调查发现,四分之一的受访者承认 (PDF) 由于结果有问题或不令人满意,他们不得不重新考虑、重新设计或覆盖基于 AI 的系统。
尽可能自动化。 “人工智能是关于非常大规模的处理,”Thurai 说。 “验证输入偏差、数据质量和验证结果的手动过程是行不通的。公司应该实施人工智能或其他大规模解决方案来自动化该过程。任何异常或审计都可以手动完成,但让人类执行高 -规模化的人工智能工作将导致灾难性的后果。”
预先将偏见排除在数据之外。 由于数据集的限制,用于训练 AI 模型的数据可能包含隐性偏差。 流入人工智能系统的数据应该经过严格审查。
在 AI 场景投入生产之前对其进行验证。 进入 AI 算法的数据每天都在变化,这些算法需要不断测试。
“在这个两极偏见的世界里,不同意它的人很容易将 AI 做出的道德决定称为假的,”Thurai 说。 “企业应格外注意人工智能决策的透明度以及所应用的道德和治理。自上而下的可解释人工智能和透明度是两个重要因素。结合定期审计来评估和纠正行动和流程。”

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 减少 AI 倦怠的 8 种方法 https://www.7claw.com/55864.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务