人工智能伦理应该像设计安全一样硬编码

2023-05-13 0 557

人工智能伦理应该像设计安全一样硬编码

企业在开始概念化和开发人工智能 (AI) 产品时,需要从零开始考虑道德问题。 这将有助于确保 AI 工具能够负责任且无偏见地实施。

同样的方法已经被认为对网络安全产品至关重要,其中“设计安全”开发原则将推动从一开始就评估风险和硬编码安全性的需求,因此可以在后期避免零散的拼凑和昂贵的改造。

Salesforce.com 道德人工智能实践的首席架构师凯西·巴克斯特 (Kathy Baxter) 表示,这种心态现在应该应用于人工智能产品的开发,她强调组织需要满足人工智能道德的基本开发标准。

她指出,自 1980 年代第一个恶意软件出现以来,网络安全行业在过去几十年里不断发展,可以吸取许多教训。 对于一个在此之前甚至不存在的行业,网络安全已经改变了公司保护其系统的方式,强调从一开始就识别风险并制定应实施的基本标准和法规。

Baxter 在接受 ZDNet 采访时表示,因此,今天的大多数组织都会制定包括员工在内的所有利益相关者都应该遵守的基本安全标准。 例如,Salesforce.com 的所有新员工都必须接受入职培训,该公司概述了对员工在网络安全实践方面的期望,例如采用强密码和使用 VPN。

这同样适用于道德,她说,并补充说公司内部有一个团队致力于推动这一点。

巴克斯特说,还有一些资源可以帮助员工评估是否应该根据公司的道德准则执行一项任务或服务,并了解红线在哪里。 例如,Salesforce.com 的 AI 支持的 Einstein Vision 永远不能用于面部识别,因此任何不知道这一点并试图销售用于此类部署的产品的销售人员都将违反公司政策。

她说,正如定期审查和修订网络安全实践以跟上不断变化的威胁形势一样,与人工智能伦理相关的政策也应如此。

她指出,随着社会和文化随着时间的推移而发生变化,这一点至关重要,10 年前一度被认为相关的价值观可能不再与当今国家人口持有的观点保持一致。 人工智能产品需要反映这一点。

数据是解决人工智能偏见的主要障碍
虽然政策可以减轻人工智能的一些偏见风险,但仍然存在其他挑战——特别是数据访问。 数量或种类的缺乏可能导致行业或细分市场的不准确表述。

巴克斯特说,这对医疗保健行业来说是一个重大挑战,尤其是在美国这样没有社会化医疗或政府运营的医疗保健系统的国家。 当人工智能模型由基于一小部分人群的有限数据集训练时,它可能会影响医疗保健服务的提供和为某些人群检测疾病的能力。

Salesforce.com 无法访问或使用其客户的数据来训练自己的 AI 模型,它将通过从外部来源购买来填补空白,例如用于训练其聊天机器人的语言数据,以及利用合成数据。

当被问及监管机构在推动 AI 伦理方面发挥的作用时,Baxter 表示,强制使用特定指标可能有害,因为围绕“可解释的 AI”的定义及其实施方式仍然存在许多问题。

这位 Salesforce.com 高管是新加坡人工智能和数据道德使用咨询委员会的成员,该委员会就与私营部门使用数据驱动技术相关的政策和治理向政府提供建议。

巴克斯特指出她在委员会的经历,说其成员很快意识到单独定义“公平”很复杂,有大约两打统计定义。 此外,她指出,对一个群体公平的事情有时不可避免地对另一个群体不太公平。

她说,定义“可解释性”也很复杂,即使是机器学习专家也可能会根据预定义的解释误解模型的工作原理。 任何使用人工智能数据的人以及所有部门的人,例如外勤人员或社会工作者,都应该很容易理解既定的政策或法规。

意识到这些问题很复杂,Baxter 表示,新加坡委员会决定建立一个框架和指南(包括工具包)会更有效,以帮助 AI 采纳者了解其影响并在 AI 的使用中保持透明。

新加坡上个月发布了一个名为 A.I. 验证,它说将使企业能够证明他们对人工智能的“客观和可验证”使用。 此举是政府通过技术和流程检查提高人工智能部署透明度的努力的一部分。

巴克斯特敦促有必要消除这样一种误解,即人工智能系统默认情况下是公平的,仅仅因为它们是机器,因此没有偏见。 她说,组织和政府必须努力确保人工智能的好处得到平等分配,并且其应用符合负责任人工智能的某些标准。

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 人工智能伦理应该像设计安全一样硬编码 https://www.7claw.com/56373.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务