为了在全国范围内推动人工智能 (AI) 的采用,多民族新加坡需要特别注意在某些领域使用人工智能,特别是执法和预防犯罪。 它应该进一步树立这样的信念,即信任对于公民对人工智能感到满意至关重要,同时认识到这样做需要在社会的各个方面培养公众信任。
至少在二十年前,当我参加媒体吹风会时,一位高管正在展示公司最新的语音识别软件。 随着大多数演示的进行,无论您为此准备了多少,事情都会出现严重的错误,包括这个特别的演示。
执行官的语音命令经常被错误地执行,每句话中的几个口头词被错误地翻译成文本。 她越努力,出错的地方就越多,在演示结束时,她看起来很慌张。
她的口音相对较重,我认为这可能是主要问题,但她花了数小时来训练该软件。 这家公司当时以其语音识别产品而闻名,因此假设其技术在当时是市场上最先进的是没有错的。
我离开那个演示时认为这几乎是不可能的,仅在亚洲甚至在讲同一种语言的人之间口音就存在巨大差异,语音识别技术要足够准确是不可能的。
大约 20 年后的今天,语音转文本和翻译工具显然已经取得了长足的进步,但它们并不总是完美的。 个人的口音和说话方式仍然是决定口语翻译效果的关键变体。
然而,错误转换的单词不太可能造成太大的损害,避免说话者可能出现的尴尬时刻。 就面部识别技术而言,事实并非如此。
1 月,美国底特律警方承认其面部识别软件错误地识别了一名商店扒手,导致他被错误逮捕。
以人权问题和种族歧视为由,IBM、微软和亚马逊等供应商一直禁止向警察和执法部门出售面部识别技术。 大多数人敦促政府制定更强有力的法规来管理和确保面部识别工具的合乎道德的使用。
亚马逊曾表示,在监管机构解决有关使用其 Rekognition 技术识别潜在犯罪嫌疑人的问题之前,其禁令将一直存在,而微软表示,在联邦法律出台监管该技术之前,它不会向警方出售面部识别软件。
由于担心面部识别技术可能煽动种族歧视和不公正,IBM 选择完全退出市场。 其首席执行官 Arvind Krishna 在 2020 年 6 月致美国国会的一封信中写道:“IBM 坚决反对也不会容忍使用任何技术,包括其他供应商提供的面部识别技术,用于大规模监视、种族定性、侵犯基本人权和 自由,或任何不符合我们信任和透明的价值观和原则的目的。
“AI 是一种强大的工具,可以帮助执法部门保护公民的安全。但是,AI 系统的供应商和用户有共同的责任,以确保对 AI 进行偏见测试,在执法中使用时具有特殊性,并且这种偏见测试经过审计和 据报道,”克里希纳写道。
我最近采访了 Ieva Martinkenaite,她是 GSMA-欧洲电信网络运营商协会 AI 工作组的主席,该协会负责为欧洲行业起草 AI 法规。 Martinkenaite 的日常工作是担任 Telenor Research 的分析和人工智能主管。
在我们关于新加坡如何最好地处理人工智能伦理和技术使用问题的讨论中,马丁肯奈特表示,每个国家都必须决定它认为什么是可以接受的,尤其是当人工智能被用于侦查犯罪等高风险领域时。 她指出,在这方面仍然存在挑战,因为有证据表明存在歧视性结果,包括针对某些种族群体和性别的歧视性结果。
在决定什么是可接受的时,她敦促各国政府与公民进行积极对话。 她补充说,在与不同肤色和面部特征分析相关的准确性问题得到妥善解决之前,在没有任何人为干预、适当的治理或质量保证到位的情况下,不应部署此类人工智能技术。
为多民族新加坡训练人工智能
面部识别软件因其不准确而受到抨击,尤其是在识别肤色较深的人方面。 麻省理工学院 2017 年的一项研究发现,肤色较深的女性被错误分类的可能性是肤色较浅的男性的 32 倍,该研究指出需要更多表型多样化的数据集来提高面部识别系统的准确性。
据推测,在一个种族群体中使用较少数据训练的人工智能和机器学习模型在识别该群体中的个体时会表现出较低的准确性。
新加坡的人口包括 74.3% 的华人、13.5% 的马来人和 9% 的印度人,其余 3.2% 由欧亚混血等其他族群组成。
如果国家决定利用面部识别系统来识别个人,那么用于训练 AI 模型的数据是否必须包含更多中国人的面孔,因为该民族占人口的大多数? 如果是这样,当系统用于识别马来人或印度人时,是否会导致较低的准确率,因为这些种族群体的数据样本较少用于训练 AI 模型?
对每个种族使用相同比例的数据是否必然会导致更准确的全面评分? 由于该国有更多的中国居民,是否应该更好地训练面部识别技术以更准确地识别这个种族群体,因为该系统可能会更频繁地被用来识别这些人?
这些问题只涉及应该用于训练面部识别系统的“正确”数据量。 还有许多其他问题仅与数据有关,例如应从何处获取训练数据、应如何对数据进行分类,以及在系统被视为“可操作就绪”之前,有多少训练数据被认为是足够的。
如果新加坡决定在执法和犯罪预防中利用人工智能,特别是考虑到种族和民族关系很重要,但在管理方面很敏感,新加坡将不得不谨慎应对这些问题。
除了数据之外,还需要就何时应使用 AI 驱动的面部识别系统、应允许它们如何自动化操作以及何时需要人工干预等问题进行讨论和决策。
就在上周,欧洲议会投票支持一项禁止执法部门使用面部识别系统的决议,理由是存在各种风险,包括歧视、不透明的决策、隐私侵犯以及保护个人数据方面的挑战。
欧洲议会表示:“这些潜在风险在执法和刑事司法领域加剧,因为它们可能影响无罪推定、个人自由和安全的基本权利以及有效补救和公平审判的权利。”
具体来说,它指向了 Clearview AI 等面部识别服务,该服务建立了一个数据库,其中包含从社交网络和其他在线平台非法收集的超过 30 亿张图片。
欧洲议会进一步呼吁禁止执法部门使用自动分析其他人类特征,例如指纹、声音、步态和其他生物特征和行为特征。 不过,通过的决议不具有法律约束力。
由于数据在喂养和训练 AI 模型中起着不可或缺的作用,因此构成此类数据的内容不可避免地成为该技术背后的关键挑战和担忧的症结所在。
世界卫生组织 (WHO) 于 6 月发布了一份指南,警告说主要根据高收入国家个人数据进行训练的人工智能医疗保健系统可能对低收入和中等收入环境中的个人表现不佳。 它还列举了其他风险,例如不道德地收集和使用医疗保健数据、网络安全以及算法中编码的偏见。
“人工智能系统必须经过精心设计,以反映社会经济和医疗保健环境的多样性,并辅以数字技能、社区参与和意识提升方面的培训,”它指出。 “国家对人工智能和支持基础设施的投资应该有助于建立有效的医疗保健系统,避免人工智能编码不利于公平提供和获得医疗保健服务的偏见。”
培养信任超越人工智能
新加坡前通讯及新闻部长兼贸易关系主管部长。 S. Iswaran 之前承认人工智能和数据使用的紧张关系,并指出需要工具和保障措施来更好地确保人们对隐私的担忧。
Iswaran 特别强调了建立信任的重要性,他说信任是一切的基础,无论是数据还是人工智能。 “最终,公民必须感受到这些举措的重点是为他们提供福利,并确保他们的数据受到保护并得到应有的保密,”他说。
新加坡一直大力倡导采用人工智能,并在 2019 年推出了一项国家战略,利用该技术创造经济价值、改善公民生活并为劳动力配备必要的技能组合。 政府认为人工智能是其智慧国家工作不可或缺的一部分,并且有必要制定全国路线图以将资源分配给重点领域。 该战略还概述了政府机构、组织和研究人员如何合作以确保人工智能产生积极影响,并指出随着人工智能变得越来越普遍,必须应对变化或潜在新风险的领域。
这里的主要目标是为新加坡铺平道路,到 2030 年成为在关键垂直领域开发和部署“可扩展、有影响力的人工智能解决方案”的领导者。 新加坡人也会相信人工智能在他们生活中的应用,这应该从对技术的好处和影响的清晰认识中培养出来。
然而,建立信任需要的不仅仅是展示人工智能的好处。 人们需要在生活的各个方面完全信任当局,任何技术的使用都将保护他们的福利和数据。 一方面缺乏信任会溢出并影响其他方面的信任,包括使用人工智能技术。
2 月,新加坡紧急推动通过新立法,详细说明当地执法部门获取 COVID-19 接触者追踪数据的范围。 几周前,有消息称警方可以访问该国的 TraceTogether 接触者追踪数据进行刑事调查,这与之前的说法相矛盾,该信息只会在个人冠状病毒检测呈阳性时使用。 它引发了公众的强烈抗议,并促使政府宣布了一项新法案的计划,该法案限制警察处理七类“严重罪行”,包括恐怖主义和绑架。
本月初,新加坡在激烈的辩论中也通过了《外国干涉(反措施)法案》,距离首次在议会提出不到一个月。 该法案被认为是打击外国干涉当地政治的威胁所必需的,但因范围过于广泛和司法审查限制而受到批评。 反对党工人党也指出,该法案的通过缺乏公众参与和速度。
公民是否会相信他们的政府使用人工智能技术来“提供福利”,尤其是在执法方面,当他们怀疑——正确地感知或以其他方式——他们在其他领域的个人数据是否得到适当监管时?
对一项政策的怀疑会转移并进一步引发对其他政策的怀疑。 正如 Iswaran 正确指出的那样,信任是推动新加坡采用人工智能不可或缺的一部分,政府可能需要审查其在民众中培养这种信任的方法。
根据德勤的说法,希望使用技术进行监视和警务的城市应该寻求平衡安全利益与保护公民自由,包括隐私和自由。
“任何监控和人工智能技术的试验都需要有适当的监管来保护隐私和公民自由。政策制定者和安全部队需要引入监管和问责机制,为新应用的试验创造一个可信赖的环境,”该咨询公司指出 . “信任是将人工智能应用于安全和警务的关键要求。要充分利用技术,必须有社区参与。”
新加坡必须评估它是否确实通过正确的立法和问责制培育了一个信任的环境,公民可以在其中适当地参与对话,以便他们可以共同决定该国在高风险地区可以接受的人工智能使用方式。