企业能否相信人工智能和机器学习正在大量涌现的决策? 这些决策需要更多的制衡——IT 领导者和专业人员必须确保 AI 尽可能公平、公正和准确。 这意味着更多的培训和对数据平台的更多投资。 ZDNet 对 IT 高管进行的一项新调查发现,公司需要更多的数据工程师、数据科学家和开发人员来实现这些目标。
该调查证实,AI 和 ML 计划是大多数企业的前沿和中心。 截至 8 月,当 ZDNet 进行调查时,近一半的代表企业 (44%) 正在积极构建或部署基于人工智能的技术。 另有 22% 的项目正在开发中。 在这个领域的努力仍然是新的和新兴的——59% 的受访企业使用人工智能的时间不到三年。 调查受访者包括高管、CIO、CTO、分析师/系统分析师、企业架构师、开发人员和项目经理。 代表的行业包括技术、服务、零售和金融服务。 公司规模各不相同。
Amazon Web Services 机器学习副总裁 Swami Sivasubramanian 将此称为人工智能和机器学习的“黄金时代”。 那是因为这项技术“正在成为全球企业的核心部分”。
IT 团队直接领导此类工作,大多数公司都在内部构建他们的系统。 接近三分之二 (63%) 的受访者表示,他们的人工智能系统是由内部 IT 人员构建和维护的。 近一半 (45%) 的受访者还通过软件即服务 (SaaS) 提供商订阅了 AI 相关服务。 另有 30% 的人使用平台即服务 (PaaS),28% 的人求助于外部顾问或服务公司。
首席数字官、首席数据官或首席分析官通常在 AI 和 ML 驱动的产出方面发挥带头作用,50% 的受访者认为这些高管是主要决策者。 另有 42% 的人表示,个别部门负责人在这一过程中发挥了作用,33% 的受访组织拥有行使 AI 监督权的公司委员会。 这些组织中有三分之一将 AI 和 ML 职责分配给数据科学家和分析师。 有趣的是,首席信息官和首席技术官仅占受访者公司的 25%。
与此同时,人工智能还没有完全渗透到 IT 专业人员和其他员工的日常工作中。 例如,只有 14% 的受访者可以说他们的大多数 IT 员工在日常生活中直接使用或访问人工智能技术。
实施难
Avanade 高级总监 Tripti Sethi 表示:“实施 AI 解决方案并不容易,并且有许多 AI 在生产中出错的例子。” “我们见过的从人工智能中获益最多的公司明白,人工智能不是一种即插即用的工具,而是一种需要培养和成熟的能力。这些公司都在问‘我可以用数据驱动什么商业价值? ‘ 而不是‘我的数据能做什么?’”
技能可用性是企业在构建和维护 AI 驱动系统时面临的主要问题之一。 近三分之二 (62%) 的受访企业表示,他们无法找到符合转向 AI 所需技能要求的人才。 超过一半(54%)的人表示很难在他们现有的组织文化中部署人工智能,46% 的人表示难以为他们想要实施的项目寻找资金。
数据工程是支持 AI 和 ML 计划最需要的技能,69% 的受访者提到了这一点。 AI 和 ML 算法的好坏取决于输入它们的数据,因此具有数据专业知识的员工对于验证、清理和确保数据的响应交付至关重要。 除了数据工程,企业还希望数据科学家开发数据模型,希望开发人员构建算法和支持应用程序。
几乎一半的企业 (47%) 通过第三方或云提供商购买扩展处理能力。 这是在技术领域采购的领先硬件领域。 只有 11% 的企业购买硬件或系统用于现场实施。 至少 42% 的人正在使用物联网 (IoT) 设备和网络来支持他们的 AI 工作。 在人工智能相关软件方面,47% 的人正在使用 Apache Spark 等分析引擎。 另有 42% 的人使用 Hadoop 等大数据集群平台,还有 42% 的人部署高级数据库。
“对于许多新用户来说,分析并不是他们所拥有的技能,这导致外包成为一种可行的替代方案,”SAS 人工智能和分析主管大卫·塔林 (David Tareen) 说。 例如,已建立且广为人知的分析功能可能需要外部帮助才能“微定位、发现欺诈交易”。 Tareen 说,需要新数据源以及创新和高级分析和 AI 方法的新项目可能包括计算机视觉或对话式 AI。 “该项目要求算法决策完全透明。这些类型的项目更难执行,但也提供了新的收入来源和独特的差异化。”
人工智能偏见
最近几个月和几年,人工智能偏见一直是头条新闻,表明人工智能算法强化了种族主义和性别歧视。 此外,对人工智能的依赖引入了信任因素,因为企业领导者可能会将关键决策留给无人值守的系统。 企业为实现公平和消除人工智能结果的偏见所做的努力还有多远? 数据显示他们并没有那么远,41% 的受访者表示很少(如果有的话)检查他们的 AI 输出,或者他们根本不知道是否进行了此类检查。 只有 17% 的受访者表示他们会持续检查 AI 输出。 此外,58% 的组织尚未向技术人员提供 AI 道德培训,或者根本不知道是否提供此类培训。
公司是否做了足够的工作来定期审查他们的人工智能结果? 最好的方法是什么? “全面的 AI 审查需要多方面的方法,”SAS 的 AI 战略顾问 Kimberly Nevala 说。 “在解决方案开发和部署之前和整个过程中,必须定期评估数据、操作环境、算法和业务成果。这需要涉及多个学科,包括业务流程/绩效管理、数据管理、模型管理、安全、IT 运营、风险和法律。许多公司在分立元件方面做得很好,但很少有公司提供强大、全面的覆盖范围。不是因为他们没有认识到这种需求,而是因为它很复杂。”
58% 的组织尚未向技术人员提供 AI 道德培训,或者根本不知道是否提供此类培训。
在许多情况下,特别是在受到严格监管的行业中,“大多数要求的做法都存在,”Nevala 说。 “然而,它们并没有以协调的方式用于分析系统。更常见的是,审查仅限于时间点检查——分析培训数据,在测试期间验证模型性能或定期报告业务成果。”
但是,有一些措施可以成功地消除偏见。 “可以使用常见的数据分析技术和方法来识别数据中的偏差,以解释存在的某些算法的基本逻辑,”Nevala 说。 “严格的测试可以揭露隐藏的偏见,例如淘汰所有女性的招聘算法。因此,虽然仍处于萌芽状态,但组织正在更好地寻找和识别偏见。”
然而,问题在于确定给定的偏见是否公平,Nevala 继续说道。 “这就是公平的来源。更复杂的是,一个没有偏见的系统可能不公平,而一个公平的系统可能有偏见——通常是有意设计的。那么,什么是公平的?你是在争取公平还是平等?你做你的 目标用户有平等的机会或能力使用该解决方案吗?受解决方案影响的人会同意它是公平的吗?这是我们应该做的事情吗?这些是技术无法回答的问题。解决人工智能中的公平和偏见需要不同的利益相关者 团队和协作团队模式。这样的组织模式正在出现,但它们还不是常态。
Blue Yonder 的联合创始人兼战略顾问 Michael Feindt 博士提倡:“IT 领导者无疑需要更多的培训和对现实世界和 AI 偏见的认识。” “由于世界本质上是不平衡的,反映当前世界和人类决策的数据自然是有偏见的。在 IT 领导和员工对他们的 AI 软件的无意识偏见负责之前,AI 不会解决歧视问题,特别是如果它仅依赖于历史人类或 做出决定的歧视性证据。明确减少历史数据中的偏见并采用固有公平的人工智能算法在打击歧视方面拥有非常强大的武器。”
该流程需要公开并可供 IT 内外的所有决策者使用。 博思艾伦人工智能战略总监 Kathleen Featheringham 表示,创建负责任的人工智能“需要特定的工具和支持性的治理流程,以有意义地平衡收益与风险的权衡”。 “这些是将负责任的 AI 原则和价值观付诸实践所需的基本要素。组织必须能够以描述性形式提供所有数据,以便随着变化和用途不断更新,以使其他人能够探索涉及数据收集过程的潜在偏见。 这是帮助识别和分类模型最初预期用途的关键步骤。在所有组织都这样做之前,我们无法消除偏见。”
IT 领导者和 AI 支持者可以通过多种方式帮助解决 AI 可操作性和问责制方面的问题。 70% 的人正在对其 AI 和 ML 工作采用持续集成/持续部署 (CI/CD) 方法,以确保不断检查算法的组成、相关应用程序以及通过它们的数据。 61% 的组织采用 DevOps——它使开发人员和运营团队的活动保持一致并实现自动化。 AIOps——用于 IT 运营的人工智能,旨在应用 AI 来管理 IT 计划——被调查的一半以上的公司 (52%) 使用。 DataOps 旨在管理和自动化数据流向分析平台——在 44% 的组织中发挥作用,43% 的组织采用敏捷计算方法。
AIOps 尤其是一种强大的方法,可在具有许多不同议程和要求的复杂企业中提供 AI 功能。 “成功地将试点项目投入运营需要我们从企业的角度全面考虑采用和部署,”Booz Allen 的副总裁 Justin Neroda 说,该公司支持 120 多个活跃的 AI 项目。 “我们创建了一个 AIOps 工程框架,专注于克服负责任地开发 AI 的试验后挑战所需的关键要素。AIOps 可以为组织带来许多技术优势,包括减少单个分析师的维护负担,同时最大限度地利用主题专家 ’生产力和满意度。这种方法推动了在一系列环境中快速部署预配置 AIOps 管道的能力。它允许在 AI 模型的整个开发、测试和部署过程中实现模型跟踪、版本控制和监控过程的自动化。”
MLOps 方法论
与这些方法相关的是 MLOps,Avanade 数字伦理总监兼全球负责人 Chris McClean 提倡将其作为将机器学习模型有效部署和维护到生产中的途径。 “MLOps 方法不仅避免了我们看到其他公司犯下的常见错误,而且为未来充满持续成功的 AI 部署建立了组织,”McClean 说。 他还提倡广泛使用自动化和自动化工具,“以更好地衡量和改进 KPI”。
行业专家列举了以下成功的 AI 和 ML 之旅的步骤,这些步骤确保了交付结果的信任和可行性:
专注于业务问题:“寻找已经有大量未开发数据的地方,”Sivasubramanian 说。 “避免修复实际上没有损坏的东西,或者选择一个华而不实但商业价值不明确的问题。”
关注数据:Sethi 建议采用“现代数据平台”来提供让 AI 和 ML 发挥作用的燃料。 “我们看到客户开始他们的 AI 之旅的一些关键领域是销售优化、客户旅程分析和系统监控。为了进一步推动数据的规模和可访问性,建立基础数据平台是一个关键要素,因为它解锁了结构化的 和非结构化数据,并驱动这些底层用例。” 此外,Sivasubramanian 说,管理数据可能会占用 AI 团队的大部分时间。 “开始时,要问的三个最重要的问题是:今天有哪些数据可用?可以提供哪些数据?一年后,我们希望今天开始收集哪些数据?”
与业务密切合作:“IT 提供基础架构来对数据进行建模,而主题专家使用模型来找到正确的解决方案,”联想高级副总裁兼首席信息官 Arthur Hu 说。 “这类似于一个食谱:它不是关于任何一种成分,甚至不是所有成分;它需要适当平衡的成分一起工作才能产生预期的结果。确保公平和无偏见地使用 AI 的关键是相同的 首先,让它成功的关键是:人类掌舵。人工智能的突破只有在各自领域的专家推动下才有可能实现。”
Sivasubramanian 说:“当心人工智能的‘漂移’:‘定期审查模型结果和性能’是公司应该例行实施的最佳实践。”定期审查模型性能很重要,因为它们的准确性会随着时间的推移而下降, 称为模型漂移的现象。”Sivasubramanian 说,除了检测模型和概念漂移外,“公司还应该审查在已经训练的模型中是否可能随着时间的推移而产生潜在偏差。” 数据和模型没有偏见,但世界的变化会导致偏见随着时间的推移而发展。”例如,抽样人口中的人口统计变化可能会导致过时的结果。
发展你的团队:Featheringham 说,大规模培训“是实现负责任的人工智能的一个关键方面,它结合了人工智能的采用、人工智能伦理和劳动力发展。” “道德和负责任的 AI 开发和部署取决于为其采用、集成和使用做出贡献的人。人类是每个 AI 系统的核心,应该保持最终控制,这就是为什么他们在每个领导层级接受适当的培训, 至关重要。” McClean 说,这包括有针对性的培训和意识。 “IT 领导者和员工应该学习如何考虑他们正在开发或运营的技术的道德影响。他们还应该能够阐明他们的技术如何支持公司的价值观,这些价值观是否是多样性和包容性,员工福祉 、客户满意度或环境责任。公司不需要每个人都学习如何识别和解决人工智能偏见或如何制定人工智能公平政策。相反,他们需要每个人都明白这些是公司的优先事项,每个人都有 如果他们想成功,就可以发挥作用。”
最终,“创建适用于人类的 AI 解决方案还需要了解人类的工作方式,”Nevala 说。 “人类与人工智能系统的互动如何影响他们的行为和表现?反之亦然。批判性思维、应对不确定性和高效协作也是被低估的关键技能。”