人工智能伦理:人工智能的好处和风险

2023-06-15 0 441

人工智能伦理:人工智能的好处和风险

1949 年,在计算机时代的黎明时期,法国哲学家加布里埃尔·马塞尔警告说,天真地应用技术来解决生活问题是很危险的。

Marcel 在 Being and Having 中写道,生活不能像修理爆胎那样修理。 任何修复,任何技术,本身都是同一个有问题的世界的产物,因此是有问题的和妥协的。

Marcel 的告诫通常用一个令人难忘的短语来概括:“生活不是要解决的问题,而是要经历的谜团。”

尽管有这样的警告,但 70 年后,人工智能仍然是人类用计算机解决或改善人类生活的愿望的最有力表达。

但是这些计算机系统是什么? 正如马塞尔会敦促的那样,人们必须问他们来自哪里,他们是否体现了他们声称要解决的问题。

(这篇文章的姊妹篇,AI in 60 seconds,为那些不熟悉 AI 的人提供了一个非常快速的入门知识,并且是后续内容的有用背景。)

什么是道德人工智能?
人工智能中的伦理本质上是质疑、不断调查,并且从不将迅速强加于人类生活的技术视为理所当然。

由于规模大,这种质疑变得更加紧迫。 就所需的计算能力和消耗的数据而言,人工智能系统正在达到巨大的规模。 它们在社会中的流行,无论是在部署规模还是在承担责任方面,都让 PC 和互联网时代的计算相形见绌。 与此同时,规模的扩大意味着该技术的许多方面,尤其是其深度学习形式,即使是最有经验的从业者也无法理解。

伦理问题的范围从深奥的,比如谁是人工智能创作的艺术作品的作者; 军事当局手中的监视是非常真实和非常令人不安的事情,他们可以使用这些工具而不受惩罚地抓捕和杀害他们的同胞。

质疑中的某个地方是一线希望,在正确的指导下,人工智能可以帮助解决世界上一些最大的问题。 可能助长偏见的技术可能会揭示招聘决策中的偏见。 同样是耗能大户的技术可能有助于减缓甚至逆转全球变暖。 人工智能目前的风险可以说是大于收益,但潜在的收益是巨大的,值得追求。

正如谷歌伦理人工智能的前联合负责人玛格丽特米切尔所优雅概括的那样,关键问题是,“人工智能可以做些什么来创造一个更美好的社会?”

人工智能伦理:新的紧迫性和争议
米切尔的问题在任何一天都会很有趣,但它出现在增加讨论紧迫性的背景下。

米切尔的话来自她在去年 12 月联合负责人 Timnit Gebru 离职后写并发布在 Google Drive 上的一封信。 Gebru 明确表示她被 Google 解雇了,Mitchell 在她的信中支持了这一说法。 谷歌 AI 负责人 Jeff Dean 在给员工的内部邮件中写道,公司接受了 Gebru 的辞职。 Gebru 的前同事为此事提供了一个新词:Gebru 被谷歌“辞职”了。

米切尔对谷歌对待 Gebru 的方式表示愤慨,并于 2 月被解雇。

谷歌两名顶级伦理研究人员的离职给谷歌的企业道德蒙上了一层阴影,更不用说它对人工智能的顾忌了。

正如 Wired 的 Tom Simonite 上个月报道的那样,两位受邀参加 3 月份谷歌机器人安全会议的学者退出了会议,以抗议 Gebru 和 Mitchell 的待遇。 第三位学者表示,他的实验室已经获得了谷歌的资助,将不再向谷歌申请资助,也是为了支持两位教授。

据 CNN 的 Rachel Metz 报道,谷歌员工于 2 月辞职,以抗议 Gebru 和 Mitchell 的待遇。 据路透社报道,谷歌 AI 团队的著名学者 Sammy Bengio 帮助招募了 Gebru,他本月辞职以抗议 Gebru 和 Mitchell 的待遇。

一份由 2,695 名谷歌员工和 4,302 名外部人士在 Medium 上签名的请愿书表达了对 Gebru 的支持,并呼吁该公司“加强对研究诚信的承诺,并明确承诺支持履行谷歌人工智能原则中所做承诺的研究。”

正如麻省理工学院学者 Katlyn Turner、Danielle Wood 和 Catherine D’Ignazio 在 1 月份的一篇文章中讨论的那样,Gebru 的情况是技术如何不中立的一个例子,因为它的创造环境不是中立的。

“黑人女性一直在创造领先的学术成果,挑战人工智能和科技行业的主流说法:即技术是非历史的、‘进化的’、‘中立的’和‘理性的’,超越了人类对性别、阶级和种族等问题的争论 ,”作者写道。

在去年 12 月关于人工智能的在线讨论中,加州大学伯克利分校教授塞莱斯特·基德 (Celeste Kidd) 在 AI 辩论 2 中回顾了 Gebru 发生的事情,他说:“现在是人工智能的可怕时刻。”

“Timnit 在谷歌的经历是常态,听到它是不寻常的,”基德说。

随着人工智能的商业和政府实施使风险变得更大,对人工智能及其实践方式的质疑,以及企业迅速反击的现象出现了。

世界上的人工智能风险
当 AI 扩展到与算法的原始学术发展相去甚远的用途时,伦理问题会引起更大的共鸣。

该技术的工业化正在扩大这些算法的日常使用。 Ryan Mac 和 BuzzFeed 的同事本月发布的一份报告发现,“来自全国近 2,000 个公共机构的 7,000 多人使用初创公司 Clearview AI 的技术搜索数百万美国人的面孔,寻找人们,包括 Black Lives Matter 抗议者, 国会大厦的叛乱分子、小罪犯以及他们自己的朋友和家人。”

Clearview 既没有证实也没有否认 BuzzFeed 的调查结果。

以某种方式依赖机器学习形式的 AI 的新设备正在投入世界。 例如,所谓的自动驾驶卡车正在高速公路上行驶,“4 级 ADAS”拖拉机拖车应该能够在没有人类驾驶员的情况下在某些指定路线上以高速公路速度行驶。

一家位于加利福尼亚州圣地亚哥的 TuSimple 制造该技术的公司将在纳斯达克上市。 该公司在其 IPO 招股说明书中表示,自宣布为钻井平台提供自动驾驶软件以来的四个月内,已有 5,700 笔预订。 当一辆卡车高速行驶,承载着巨大的负载时,确保人工智能软件安全地驾驶车辆显然是社会的首要任务。

另一个值得关注的领域是人工智能在军事和警务活动领域的应用。

Arthur Holland Michel 是一本关于军事监视的广博书籍 Eyes in the Sky 的作者,他描述了如何使用 ImageNet 来增强美国军方的监视系统。 对于任何将监视视为保护人们安全的有用工具的人来说,这是一个令人鼓舞的消息。 对于任何担心不受任何民间监督检查的监视问题的人来说,这是 AI 应用的令人不安的扩展。

大规模监控反弹
要求通过面部识别等技术实现大规模监控的呼声越来越高,根本不使用。

正如 ZDNet 的 Daphne Leprince-Ringuet 上个月报道的那样,包括 AlgorithmWatch 和欧洲数字协会在内的 51 个组织已致函欧盟,敦促全面禁止监视。

看起来毕竟会有一些限制。 在一年前对风险进行广泛报告、配套白皮书并征求众多“利益相关者”的反馈后,欧盟委员会本月发布了“人工智能人工智能统一规则”提案。 附带条件之一是限制执法部门在公共场合使用面部识别。

报告指出:“除非适用某些有限的例外情况,否则也禁止在公共可访问的空间使用‘实时’远程生物特征识别系统进行执法。”

反对监视的强烈反对一直在寻找新的例子来指出。 典型的例子是对中国 Xianxjang 地区的维吾尔族人的监督。 缅甸 2 月发生军事政变后,人权观察报告称,鉴于刚刚建立的监视系统,人权处于平衡状态。 这个名为“安全城市”的项目于 12 月在首都内比都部署。

正如一位研究人员告诉人权观察,“在政变之前,缅甸政府试图以打击犯罪的名义为大规模监控技术辩护,但它所做的却是在授权一个滥权的军政府。”

似乎所有这些发展还不够引人注目,人工智能已经成为一场军备竞赛,各国现在已将人工智能作为国家政策问题,以避免出现存在的风险。 美国人工智能国家安全委员会由前谷歌首席执行官埃里克施密特、甲骨文首席执行官萨夫拉卡茨和亚马逊即将上任的首席执行官安迪贾西等技术重量级人物组成,上个月发布了长达 756 页的“最终报告”。 “人工智能时代的制胜战略”。

作者“担心人工智能工具将成为未来冲突中的首选武器,”他们写道,并指出“国家对手已经在使用支持人工智能的虚假信息攻击来播下民主国家的分裂种子,并动摇我们的现实感。”

该委员会的总体信息是“美国政府不准备在即将到来的人工智能时代保卫美国”。 为了做好准备,白宫需要将 AI 列为内阁级别的优先事项,并“为 2025 年广泛整合 AI 奠定基础”。 这包括“建立一个通用的数字基础设施,培养一支具有数字素养的员工队伍,以及建立更灵活的采购、预算和监督流程。”

人工智能领域伦理关注的原因
为什么会出现这些问题? 正义和威权主义问题是永恒的,但人工智能的到来也带来了新问题,尤其是其现代深度学习变体。

想想谷歌与学者 Gebru 和 Mitchell 之间的事件。 争议的核心是两人正在为会议准备的一篇研究论文,该会议具体化了对人工智能技术现状的质疑。

这篇论文由华盛顿大学的 Emily Bender、Gebru、同样来自华盛顿大学的 Angelina McMillan-Major 和 Mitchell 合着,题为“关于随机鹦鹉的危险:语言模型会不会太大?” 专注于机器学习中称为自然语言处理或 NLP 的主题。

作者描述了 GPT-3 等语言模型如何变得越来越大,最终形成了非常大的“预训练”语言模型,包括谷歌的 Switch Transformer,也称为 Switch-C,它似乎是发布到 日期。 Switch-C 使用 1.6 万亿个神经“权重”或参数,并在 745 GB 文本数据的语料库上进行训练。

作者确定了两个风险因素。 一是 Switch-C 等越来越大的型号对环境的影响。 这些模型消耗大量计算,并产生越来越多的二氧化碳。 第二个问题是模型生成的文本字符串生成中的偏差复制。

环境问题是规模问题最生动的例子之一。 正如 ZDNet 报道的那样,NLP 的最新技术,事实上,深度学习的大部分,是继续使用越来越多的来自 Nvidia 和 AMD 的 GPU 芯片来运行越来越大的软件程序。 一般来说,这些模型的准确性似乎随着尺寸的增加而增加。

但这是有环境成本的。 Bender 和团队援引之前的研究表明,训练一个大型语言模型,即比 Switch-C 更小的谷歌 Transformer 版本,排放了 284 吨二氧化碳,是估计人类排放二氧化碳量的 57 倍。 负责一年内排放到环境中。

作者指出,具有讽刺意味的是,如此庞大的 GPU 农场对环境造成的成本不断上升,最直接地影响了处于变革风险前沿的社区,这些语言模型甚至无法适应这些语言模型,尤其是人口 位于阿拉伯海的马尔代夫群岛,其官方语言为迪维希语,是印度-雅利安语系的一个分支:

例如,马尔代夫的居民(到 2100 年可能会淹没在水下)或苏丹受严重洪水影响的 800,000 人是否为培训和部署更大的英语 LM [语言模型] 付出了环境代价,这公平吗? ],当没有为迪维希语或苏丹阿拉伯语制作类似的大型模型时?

第二个问题与这些大型语言模型使训练集数据中包含的偏见永久化的趋势有关,这些数据通常是从 Reddit 等地方抓取的公开文章。 如果该文本包含偏见,这些偏见将在生成的输出中被捕获和放大。

同样,根本问题是规模问题。 训练集如此之大,无法正确记录代码中的偏差问题,也无法对其进行适当的管理以消除偏差。

“大型 [语言模型] 编码并强化霸权偏见,随之而来的危害最有可能落在边缘化人群身上,”作者写道。

计算效率伦理
一段时间以来,越来越大的模型的巨大计算成本风险一直是争论的话题。 部分问题在于,包括能源消耗在内的性能指标通常都处于保密状态。

人工智能计算中的一些基准测试变得更加智能。 MLPerf 是衡量神经网络训练和推理性能的主要指标,它一直在努力为特定工作负载提供更具代表性的 AI 系统指标。 本月,监督 MLPerf 的组织 MLCommons 首次要求供应商不仅列出性能,还列出这些机器学习任务消耗的能源。

不管数据如何,事实是系统总体上变得越来越大。 该领域对能源问题的回应有两个方面:构建在处理大型模型时更高效的计算机,以及开发能够以更智能的方式计算深度学习的算法,而不仅仅是在问题上投入更多计算 .

首先,许多初创公司已经出现,提供专用于 AI 的计算机,他们说这些计算机比当今通常需要的成百上千个来自 Nvidia 或 AMD 的 GPU 更高效。

它们包括开创了世界上最大计算机芯片的 Cerebras Systems; Graphcore,第一家提供专用人工智能计算系统的公司,拥有自己新颖的芯片架构; 和 SambaNova Systems,该公司已获得超过 10 亿美元的风险投资,用于销售这两个系统以及 AI 即服务产品。

“这些非常大的模型需要大量的 GPU 来保存数据,”SambaNova 的联合创始人、斯坦福大学计算机科学教授 Kunle Olukotun 告诉 ZDNet,他指的是谷歌的 BERT 等语言模型。

Olukotun 说:“从根本上说,如果你能让某人用更小的系统来训练这些模型,那么你就可以用更少的能量来训练模型,并且可以使使用这些大型模型的能力民主化。”

那些设计深度学习神经网络的人同时也在探索提高系统效率的方法。 例如,来自谷歌的 Switch Transformer,Bender 和团队引用的超大型语言模型,可以在训练中达到某个最佳点,参数远少于其最大 1.6 万亿个参数,作者 William Fedus 和谷歌的同事。

他们写道,该软件“在小规模以及具有数千个核心和数万亿参数的体系中也是一种有效的架构”。

他们写道,关键是使用一种称为稀疏性的属性,该属性可以修剪为每个数据样本激活哪些权重。

另一种更聪明地工作的方法是一种称为散列的技术。 这种方法体现在一个名为“Slide”的项目中,该项目由莱斯大学的 Beidi Chen 和英特尔的合作者去年推出。 他们使用一种叫做哈希表的东西来识别神经网络中可以省去的单个神经元,从而减少整体计算预算。

Chen 和团队将此称为“选择性稀疏化”,他们证明在 44 核 CPU 上运行神经网络的速度比在 Nvidia Tesla V100 GPU 上快 3.5 倍。

只要像谷歌和亚马逊这样的大公司在研究和生产中主导深度学习,“越大越好”就有可能主导神经网络。 如果规模较小、资源较少的用户在较小的设施中进行深度学习,那么更高效的算法可能会获得新的追随者。

人工智能伦理:最近的历史
第二个问题,AI 偏见,与 Bender 等人直接相关。 回到 2018 年的一篇论文,该论文触动了人工智能伦理的当前时代,正如他们所说,那篇论文被传遍了全世界。

那篇 2018 年的论文“性别阴影:商业性别分类中的交叉准确性差异”也是由当时在微软工作的 Gebru 和麻省理工学院研究员 Joy Buolamwini 共同撰写的。 他们展示了市售面部识别系统在处理浅肤色男性图像时的准确性如何,但在处理深色皮肤女性图像时却出现了灾难性的错误。 作者的关键问题是为什么在商业系统中可以容忍这种不准确。

Buolamwini 和 Gebru 在计算机协会关于公平性、问责制和透明度的会议上发表了他们的论文。 这与 2 月 Bender 和团队提交 Parrot 论文的会议相同。 (Gebru 是会议的联合创始人。)

AI 中的偏见是什么?
Gender Shades 和 Parrot 论文都涉及 AI 中的核心伦理问题,即偏见的概念。 机器学习形式的人工智能广泛使用统计学原理。 在统计学中,偏差是指对某事物的估计结果与该事物的真实数量不符。

因此,例如,如果一个政治民意测验者对选民的偏好进行民意调查,如果他们只从与民意调查者交谈的人那里得到回应,他们可能会得到所谓的反应偏差,其中他们对某个候选人的偏好的估计 受欢迎程度并不能准确反映更广泛人群的偏好。

2018 年的 Gender Shades 论文开创性地展示了一种算法(在本例中为面部识别)如何与事实极度不一致,这是一种影响特定人群的偏见形式。

快进,Parrot 的论文显示了这种统计偏差是如何以两种特殊方式因规模效应而加剧的。 一种方式是数据集激增,规模增加,模糊了它们的构成。 这种模糊性可能会混淆数据与事实之间可能已经存在的偏差。

其次,NLP 程序(例如 GPT-3)是生成性的,这意味着它们正在世界上涌现出数量惊人的技术人工制品,例如自动生成的文字。 通过创建此类人工制品,可以在此过程中复制和放大偏见,从而扩散此类偏见。

质疑人工智能数据的来源
关于第一个分数,即数据集的规模,学者们主张超越仅仅调整机器学习系统以减轻偏见,而是调查用于训练此类模型的数据集,以探索存在的偏见 数据本身。

一个例子是米切尔和谷歌团队创建的一种方法,称为模型卡。 正如介绍性文件“模型报告的模型卡”中所述,数据集需要被视为基础设施。 这样做会暴露“他们创造的条件”,而这往往是模糊的。 该研究建议将数据集视为“目标驱动工程”的问题,并提出关键问题,例如数据集是否可信以及它们是否存在偏见。

另一个例子是去年的一篇论文,由 Emily Denton 和谷歌的同事在人工智能伦理现状中发表,题为“让人们回归”,他们在其中提出了他们所谓的数据谱系,目标是“调查 这些数据集是如何创建的以及为什么创建的,什么以及谁的价值会影响数据收集的选择,创建数据集的背景和偶然条件,以及当前数据实践规范和标准的出现。”

学者们已经阐明了主要 NLP 模型中使用的一些最突出数据集的模糊情况。 例如,初创公司 UnifyID Inc. 的首席科学家 Vinay Uday Prabhu 去年在斯坦福大学的一次虚拟演讲中检查了 ImageNet 数据集,该数据集包含 1500 万张带有描述标签的图像。

2009 年 ImageNet 的推出可以说开启了深度学习时代。 然而,ImageNet 存在一些问题,特别是它在未经同意的情况下从 Flickr 盗用了个人照片,Prabhu 解释说。

Prabhu 说,那些未经同意的照片落入了全世界成千上万实体的手中,这导致了非常真实的个人风险,他说,他称之为“易感阶段”,即对隐私的大规模侵犯。

使用所谓的反向图像搜索,通过商业在线服务,Prabhu 能够拍摄人物的 ImageNet 照片,并“很容易地找出他们在现实世界中的身份”。 Prabhu 说,像 Clearview 这样的公司只是工业化侵犯隐私这一更广泛问题的一个症状。

一个雄心勃勃的项目试图对这种盗用行为进行分类。 它名为 Exposing.ai,是 Adam Harvey 和 Jules LaPlace 的作品,于 1 月正式亮相。 作者花了数年时间追踪个人照片是如何在未经同意的情况下被盗用于机器学习训练集中的。

该网站是一个搜索引擎,人们可以在其中“检查您的 Flickr 照片是否被用于数十种最广泛使用和引用的公众面部和生物特征图像数据集 […],以训练、测试或增强用于学术领域的人工智能监控技术 、商业或国防相关的应用程序,”正如 Harvey 和 LaPlace 所描述的那样。

数据收集的阴暗面
一些人认为,这个问题不仅仅是数据的内容,还包括其生产方式。 Amazon 的 Mechanical Turk 服务无处不在,作为一种雇佣人类来准备大量数据集的方式,例如通过将标签应用于 ImageNet 的图片或对聊天机器人对话进行评分。

Vice 的 Aliide Naylor 上个月的一篇文章引用了 Mechanical Turk 的工人的话,他们在某些情况下感到被迫按照预定目标产生结果。

一个名为 Turkopticon 的项目已经兴起,旨在对与 Mechanical Turk 签约的各方进行众包审查,以帮助 Turk 员工避免虐待或阴暗的客户。 这是一种尝试,旨在改善许多人认为不断扩大的下层计件工人所面临的令人不安的困境,微软的 Mary Gray 和 Siddharth Suri 将其称为“幽灵工作”。

有一些小迹象表明,对数据集的关注已经传达给了从事深度学习的大型组织。 Facebook 本月宣布了一个新的数据集,该数据集不是通过盗用个人图像创建的,而是通过制作同意出现在视频中的三千多名付费演员的原创视频而创建的。

主要作者 Caner Hazirbas 及其同事的论文解释说,“休闲对话”数据集的特点是“年龄和性别注释由受试者自己提供”。 作者使用所谓的菲茨帕特里克量表对每个人的皮肤类型进行了注释,这与 Buolamwini 和 Gebru 在他们的性别阴影论文中使用的测量方法相同。 事实上,Hazirbas 和团队突出地引用了性别阴影作为先例。

Hazirbas 和他的同事发现,除其他外,当机器学习系统针对这个新数据集进行测试时,一些与 Buolamwini 和 Gebru 所确定的相同的故障会突然出现。 他们写道:“我们注意到算法明显偏向于肤色较浅的对象。”

除了结果,论文中最有说服力的一句话是对研究态度的潜在改变,这是工程中的人文主义倾向。

“我们更喜欢这种以人为本的方法,并相信它可以让我们的数据对年龄和性别有一个相对公正的看法,”Hazirbas 和团队写道。

另一个有趣的发展是创建 MLPerf 基准的行业联盟 MLCommons 决定创建一个新的数据集用于语音到文本,将人类语音转换为自动生成的文本字符串的任务。

数据集 The People’s Speech 包含 87,000 小时的口语废话。 它旨在训练亚马逊的 Alexa 等语音助手。 该数据集的要点在于它是在开源许可下提供的,而且它意味着多样化:它包含 59 种语言的语音。

该组织声称,“通过 People’s Speech,MLCommons 将创造机会将先进语音技术的范围扩展到更多语言,并帮助为全世界人口提供语音辅助的好处,而不是将其局限于最常用语言的使用者 ”

生成一切:假货的兴起
偏见的伦理问题被 Parrot 论文确定的第二个因素放大,即神经网络越来越“生成”的事实,这意味着它们不仅仅是作为决策工具,例如经典的线性回归机 学习计划。 他们正在用创造物淹没世界。

经典示例是 Nvidia 于 2018 年推出并在 Github 上提供的“StyleGAN”。 该软件可用于生成逼真的面孔:它催生了一个伪造肖像的时代。

斯坦福大学 AI 指数报告于 3 月发布,对 AI 各个方面的发展状况进行了年度总结。 最新版本描述了所谓的“生成一切”,即这些新数字工件的流行。

报告指出:“人工智能系统现在可以将文本、音频和图像组合成足够高的标准,以至于人类很难区分该技术的某些受限应用的合成输出和非合成输出之间的区别。”

“这有望产生范围广泛的 AI 下游应用,用于对社会有用和不太有用的目的。”

生成式人工智能的潜在危害很多。

正如 Parrot 论文所指出的,文本的传播概括了社会偏见。 但是,作用于该数据的算法可能会产生其他类型的偏差。 这包括,例如,其目标是将人脸分类为“有吸引力”或“无吸引力”类别的算法。 所谓的生成算法,例如 GAN,可以用来无休止地复制一个据称具有吸引力的狭隘公式,以便用这种特殊的审美淹没世界,排除其他一切。

通过挪用数据并重塑数据,GAN 提出了关于作者身份、责任和信用的各种新伦理问题。 生成的艺术品已经拍卖了大笔钱。 但它们是谁的作品呢? 如果他们挪用了现有材料,就像许多 GAN 机器中的情况一样,那么谁应该得到信任? 是构建算法的工程师,还是用来训练算法的人类艺术家?

还有 DeepFake 浪潮,假图像和假录音以及假文本和假视频可以误导人们对事件的情况。

一个新兴领域是伪造身份。 使用诸如 thispersondoesnotexist.com 之类的网站(由 StyleGAN 代码构建),人们可以通过融合多种特征来制作令人信服的面貌。 Twitter 的研究员 Rumman Chowdhury 表示,这种假面孔可以用于虚假的社交账户,然后成为人们可以在社交媒体上骚扰他人的工具。

红杉资本的风险投资家 Konstantine Buehler 认为,发明的人物角色,也许像化身一样,将越来越成为人们在线参与的正常组成部分。

虚假人物、DeepFakes、放大的偏见、未经授权的盗用、选美比赛——所有这些生成性的发展都是一体的。 它们是数字产品的快速传播,几乎没有对其后果进行监督或讨论。

人工智能风险分类
人工智能伦理的一个核心挑战就是正确定义问题。 近年来,大量有组织的、正式的学术研究致力于确定伦理问题的范围和广度。

例如,非营利组织 Future of Life 在 2018 年向有关该主题的 10 个研究项目提供了 200 万美元的赠款,由埃隆·马斯克资助。 在过去的几年里,机构产生了大量的报告和提案。 AI Ethics 现在是许多公司的执行角色。

许多年度报告都试图对道德问题进行分类或聚类。 Capgemini 去年 10 月发表的人工智能研究“人工智能与伦理难题”确定了机器学习中的四个伦理向量:可解释性、公平性、透明度和可审计性、意义以及审计机器学习系统以确定如何进行的能力 它的功能。

根据 Capgemini 的说法,从 2019 年到 2020 年,只有可解释性显示出任何进展,而其他三个被发现“动力不足”或“未能发展”。

另外:AI 和道德:三分之一的高管不知道潜在的 AI 偏见

非营利组织蒙特利尔人工智能伦理研究所 1 月份的一份报告“人工智能伦理现状”对人工智能伦理中的许多问题进行了非常有用的广泛总结。 该研究出版物收集了大量原创学术论文以及媒体报道,对其进行总结,并按期进行组织。

该报告的要点是,道德问题涵盖的范围比人们想象的要广泛得多。 它们包括算法不公正、歧视、劳工影响、错误信息、隐私以及风险和安全。

试图衡量道德
根据一些花时间研究伦理学数据的学者的说法,一个关键的限制因素是没有足够的定量数据。

这是上个月在斯坦福大学以人为本的人工智能研究所 HAI 发布的第四届年度人工智能指数中得出的结论之一。 在专门讨论伦理的章节中,学者们指出他们“惊讶地发现关于这个主题的数据如此之少。”

作者写道:“尽管许多团体正在 AI 伦理领域产生一系列定性或规范性成果,但该领域通常缺乏可用于衡量或评估更广泛的社会技术发展讨论与 技术本身的发展。”

衡量道德的尝试引发了关于人们试图衡量什么的问题。 以偏见为例。 解决偏见的办法是纠正统计分布以实现更大的“公平”,这听起来很简单。 一些人认为这种方法过于简单。

米切尔在谷歌时的项目之一是将偏见讨论的界限移到公平和意义问题之外,质疑数据集的平衡在正义背景下对不同人群意味着什么。

在去年的一项工作“子集选择中的多样性和包容性度量”中,米切尔和团队应用集合论创建了一个可量化的框架,用于确定给定算法是增加还是减少“多样性”和“包容性”的数量。 这些术语超出了社会中特定群体的代表程度,而是衡量一个群体中属性的存在程度,比如性别或年龄。

使用这种方法,人们可以开始做一些事情,比如衡量一个给定的数据集在多大程度上实现了“道德目标”,比如平等主义,这将“有利于共享一个属性的服务不足的个人”。

制定道德准则
许多机构已经宣布自己支持以一种或另一种形式的道德规范,尽管这些声明的好处是一个有争议的问题。

最著名的原则声明之一是蒙特利尔大学 2018 年关于负责任人工智能的蒙特利尔宣言。 该宣言制定了许多高尚的目标,例如人类的自主权和保护个人隐私。

宣布对人工智能伦理采取某种形式立场的机构包括 IBM、SAP、微软、英特尔和百度等顶级科技公司; 英国上议院等政府机构; 梵蒂冈等非政府机构; 著名的技术组织,例如 IEEE; 以及专门成立的机构,例如欧盟委员会的欧洲科学和新技术伦理小组。

研究公司 The AI Ethics Lab 编制了一份清单,列出了自 2015 年以来在该领域支持伦理的机构。 据最新统计,该名单共有 117 个组织。 斯坦福大学 HAI 的 AI 索引引用了该实验室的工作。

目前尚不清楚所有这些声明的意义。 AI 伦理实验室 12 月在著名的 ACM 通讯杂志上发表的一项研究得出结论,这些组织的所有深刻思考都无法真正付诸实践。

正如实验室主任 Cansu Canca 所写,众多声明“大多是模糊制定的原则”。 更重要的是,他们混淆了两种伦理原则,Canca 写道,所谓的核心原则和工具原则。

Canca 借鉴了生物伦理学方面的长期工作,提出人工智能伦理应该从三个核心原则开始,即自主; 成本效益权衡; 和正义。 这些是“道德和政治哲学理论认为具有内在价值的价值观,这意味着它们的价值不是来自其他东西,”坎卡写道。

您如何在 AI 中实施道德规范?
Canca 写道,AI 伦理中的其他所有内容都是有用的,也就是说,只有在它保证核心原则的情况下才重要。 因此,例如,人工智能模型操作的透明度或可解释性等透明度本身并不重要,但在某种程度上它“有助于维护人类自主和正义的内在价值”。

关注人工智能的运营正在成为一种趋势。 微软的 Abhishek Gupta 目前正在出版的一本书 Actionable AI Ethics 将于今年晚些时候出版,该书也探讨了操作化的主题。 古普塔是蒙特利尔人工智能伦理研究所的创始人。

Abhishek 声称这本书将从“人工智能伦理中分散的工具和框架景观”的噪音中恢复信号。 这本书承诺帮助组织“唤起客户对他们构建的产品和服务的高度信任”。

与此类似,华盛顿大学法学教授 Ryan Calo 在去年 12 月举行的 AI 辩论 2 期间表示,原则是有问题的,因为它们“不是自我执行的”,因为“违反它们不会受到惩罚。 “

“原则在很大程度上是没有意义的,因为在实践中,它们旨在提出没有人会提出异议的主张,”卡罗说。 “有人认为人工智能不安全吗?”

相反,“我们需要做的是卷起袖子评估人工智能如何影响人类的能力,然后调整我们的法律体系以适应这种变化。

“仅仅因为 AI 不能受到这样的监管,并不意味着我们不能改变法律来应对它。”

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 人工智能伦理:人工智能的好处和风险 https://www.7claw.com/57780.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务