包括新加坡在内的每个国家都需要决定它认为什么是可以接受的人工智能 (AI) 用途,包括是否应该接受或禁止在公共场所使用面部识别技术。 讨论应寻求平衡市场机会并确保合乎道德地使用 AI,以便此类指南可用且易于采用。
Telenor Research 分析和人工智能主管 Ieva Martinkenaite 表示,最重要的是,政府应该推动公众辩论并收集反馈,以便人工智能法规与其当地人口相关。 这家挪威电信公司应用人工智能和机器学习模型来提供更加个性化的客户和有针对性的销售活动,实现更高的运营效率,并优化其网络资源。
例如,该技术有助于识别不同位置的客户使用模式,并利用这些数据来减少或关闭使用率低的天线。 Martinkenaite 在接受 ZDNet 采访时表示,这不仅有助于降低能源消耗,从而降低电费,还可以增强环境的可持续性。
这位 Telenor 高管还担任 GSMA-欧洲电信网络运营商协会 AI 工作组的主席,该协会负责为欧洲行业起草 AI 法规,将道德准则转变为法律要求。 她还就挪威政府对拟议的欧盟监管法案的立场提供了意见。
当被问及她可以为新加坡提供哪些教训时,新加坡于去年 10 月发布了人工智能伦理发展指南,Martinkenaite 指出监管机构需要务实并了解立法对商业的影响。
她说,关于人工智能伦理和治理的框架在纸面上可能看起来不错,但也应该努力确保这些框架在采用方面是可用的。 这强调了持续对话和反馈以及持续改进的必要性,因此任何法规都保持相关性。
一方面,此类指南应与人工智能战略一起提供,包括国家应追求的业务类型和运营模式,以及最能从其部署中受益的行业重点。
在这方面,她说欧盟和新加坡已经确定了他们认为数据和人工智能的使用可以扩展的战略行业。 这些部门也应该具有全球竞争力,国家最大的投资应该投向这些部门。
新加坡于 2019 年公布了其国家人工智能战略,以确定关键领域的资源并将其分配给重点领域,并为该国到 2030 年成为在关键垂直领域开发和部署“可扩展、有影响力的人工智能解决方案”的领导者铺平道路。 其中包括制造、金融和政府。
在推动有意义地采用 AI 时,各国应努力在挖掘市场机会和确保合乎道德地使用该技术之间寻求“平衡”。
注意到技术在不断发展,她说法规也不可能始终跟上。
她解释说,在起草该地区的 AI 法规时,欧盟立法者还应对了一些挑战,包括如何在不影响人才和创新流动的情况下引入有关 AI 道德使用的法律。 这被证明是一个重大障碍,因为人们担心监管可能会导致过多的繁文缛节,而公司可能会发现难以遵守这些繁文缛节。
Martinkenaite 表示,人们还担心越来越依赖由少数互联网巨头(包括亚马逊、谷歌和微软以及中国的其他公司)开发的 IT 基础设施和机器学习框架。
她引用了欧盟政策制定者对该地区如何在这种新兴格局中保持其主权和独立的不安态度。 具体而言,讨论围绕在该地区内创建人工智能关键支持技术的需求展开,例如数据、计算能力、存储和机器学习架构。
她指出,由于专注于建立更大的 AI 技术独立性,因此对于欧盟政府来说,制定激励措施并推动本地生态系统投资至关重要。
她补充说,对负责任地使用人工智能的日益担忧也推动了该地区的大部分讨论,就像在亚洲等其他地区一样。
虽然最佳原则是什么仍不确定,但她强调各国需要参与制定人工智能伦理原则的讨论和努力。 这将使全球行业聚集在一起,就应该遵守的这些原则达成一致并予以遵守。
联合国人权事务负责人米歇尔·巴切莱特 (Michelle Bachelet) 最近呼吁,如果人工智能的使用违反国际人权法,则应将其定为非法。 她强调了评估和解决人工智能可能给人权带来的风险的紧迫性,并指出在人工智能对人权构成更高风险的情况下,应该对其使用实施更严格的立法。
巴切莱特说:“人工智能可以成为一股善的力量,帮助社会克服我们这个时代的一些重大挑战。但如果人工智能技术的使用没有充分考虑它们如何影响人们的人权,它们可能会产生负面甚至灾难性的影响。 “
联合国报告敦促各国政府采取更强有力的行动来控制算法。 具体来说,它建议暂停在公共场所使用包括面部识别在内的生物识别技术,直到至少当局能够证明不存在准确性或歧视性影响方面的重大问题。
报告指出,这些人工智能系统越来越多地用于实时和远距离识别人员,并有可能实现对个人的无限跟踪,它们也应该遵守隐私和数据保护标准。 它补充说,“迫切需要”更多关于生物识别技术使用的人权指南。
在道德与人工智能业务之间找到平衡
为了更好地推动道德人工智能的采用,Martinkenaite 表示,此类指导方针应与人工智能战略一起提供,包括该国应追求的业务类型和运营模式,以及最能从其部署中受益的行业重点。
在这方面,她说欧盟和新加坡已经确定了他们认为数据和人工智能的使用可以扩展的战略行业。 这些部门也应该具有全球竞争力,国家最大的投资应该投向这些部门。
新加坡于 2019 年公布了其国家人工智能战略,以确定关键领域的资源并将其分配给重点领域,并为该国到 2030 年成为在关键垂直领域开发和部署“可扩展、有影响力的人工智能解决方案”的领导者铺平道路。 其中包括制造、金融和政府。
在推动有意义地采用 AI 时,各国应努力在挖掘市场机会和确保合乎道德地使用该技术之间寻求“平衡”。
Martinkenaite 指出,世界各国政府和监管机构必须确定在其国家使用 AI 和跟踪数据的能力方面的道德意义,因为它的应用是非歧视性的。
这将是相关的,尤其是在讨论人工智能可能在某些领域引入的风险时,例如面部识别。 她说,虽然任何技术本身不一定是坏的,但它的使用可以被认为是坏的。
例如,人工智能可用于侦查罪犯或预防事故和犯罪,从而造福社会。 然而,在歧视结果的证据中,包括针对某些种族、经济阶层和性别的歧视,在这种使用中存在挑战。 这些可能会带来很高的安全或政治风险。
Martinkenaite 指出,每个国家和政府随后都需要决定其公民应用人工智能的可接受和首选方式。 其中包括是否应该接受或禁止出于执法目的在人脸视频和图像上使用人工智能生物识别技术的问题。
她指出欧盟正在进行的辩论,例如,是否应该完全禁止在公共场所使用人工智能面部识别技术,或者仅在例外情况下使用,例如预防或打击犯罪。
她说,在这些问题上也应该权衡其公民的意见,并补充说这里没有错误或正确的决定。 她说,这些只是各国必须自己决定的决定,包括新加坡等多民族国家。
“这是每个国家都需要进行的对话,”她说。
不过,Martinkenaite 指出,在与分析不同肤色和面部特征相关的准确性问题得到妥善解决之前,在没有任何人为干预、适当的治理或质量保证的情况下,不应部署此类人工智能技术。
她敦促需要对机器学习研究和技能组合进行持续投资,这样技术才能更好,变得更强大。
她指出,采用符合道德规范的 AI 战略也可以为企业带来机遇,因为消费者希望从充分保护其个人数据的组织那里购买安全可靠的产品和服务。
她补充说,了解此类需求并投资必要的人才和资源以构建可持续人工智能环境的公司将成为市场差异化因素。
5 月份发布的一份 FICO 报告显示,在金融服务行业的 100 位专注于人工智能的领导者中,近 70% 的人无法解释具体的人工智能模型决策或预测是如何做出的。 约 78% 的人表示他们“没有能力确保使用新人工智能系统的道德影响”,而 35% 的人表示他们的组织努力以透明和负责任的方式使用人工智能。
近 80% 的人表示,他们很难让其他高级管理人员考虑或优先考虑符合道德的 AI 使用实践,而 65% 的人表示,他们的组织没有“无效”的流程来确保 AI 项目符合任何法规。