要是有工具可以将道德规范融入人工智能应用就好了。
开发人员和 IT 团队承受着将 AI 功能构建到公司的接触点和决策系统中的巨大压力。 与此同时,越来越多的人反对所提供的 AI 充满偏见和侵犯隐私权。 换句话说,这是肥沃的诉讼领地。
Reid Blackman 说,可能有一些非常引人注目的工具和平台承诺公平和平衡的 AI,但工具和平台本身并不能提供符合道德的 AI 解决方案,他在即将出版的新书 Ethical Machines 中提供了克服棘手的 AI 道德问题的途径: 完全公正、透明和尊重 AI 的简明指南(哈佛商业评论出版社)。 他为使用 AI 的开发人员提供道德建议,因为用他自己的话说,“当用户具备必要的知识、概念和培训时,工具才能有效地使用。” 为此,布莱克曼提供了开发和 IT 团队交付符合道德标准的 AI 所需的一些见解。
不用担心清理你的哲学 101 课堂笔记
布莱克曼说,考虑流行的伦理和道德理论并将其应用于人工智能工作“是构建符合伦理道德的人工智能的糟糕方式”。 相反,与团队合作,采用实用的方法。 “对于手头的案例来说,重要的是 [你的团队成员] 认为需要减轻的道德风险,然后你们就可以开始协作识别和执行风险减轻策略。”
不要执着于“伤害”
担心人工智能可能无意间给客户或员工带来的伤害是有道理的,但伦理思考必须更广泛。 布莱克曼认为,适当的背景是从避免人们“受到伤害”的角度来思考。 这包括“什么在道德上是允许的,什么权利可能被侵犯,以及什么义务可能有错。”
引入伦理学家
他们“能够比设计师、工程师和数据科学家更快地发现道德问题——就像后者可以发现糟糕的设计、错误的工程和有缺陷的数学分析一样。”
考虑拟创建或采购的五个道德问题
这些包括 1) 你创造了什么,2) 你如何创造它,3) 人们用它做什么,4) 它有什么影响,以及 5) 如何应对这些影响。
布莱克曼说,人工智能产品“有点像马戏团的老虎”。 “你像对待自己的孩子一样抚养他们,仔细训练他们,他们在一场又一场的演出中表现出色,然后有一天他们会咬掉你的头。” 驯服 AI 的能力取决于“我们如何训练它,它在野外如何表现,我们如何继续用更多数据训练它,以及它如何与它嵌入的各种环境交互。” 但是不断变化的变量——例如流行病或政治环境——“会使人工智能在道德上的风险比你部署它的那一天更高。”