今天最复杂的人工智能程序具有感知力或意识的可能性不到 10%,但十年后,领先的人工智能程序可能有 20% 或更高的意识。
也就是说,如果他们能够达到鱼类级别的认知。
这就是纽约大学哲学教授戴维·查默斯 (David Chalmers) 周一对一个极具争议话题的看法。
Chalmers 的演讲题为“大型语言模型可以有意识吗?” 是 11 月 28 日第 36 届年度神经信息处理系统会议(通常称为 NeurIPS)的开幕主题演讲,这是世界上最负盛名的人工智能会议,本周在新奥尔良举行。
当然,大型语言模型是当今一些最先进的人工智能程序机器学习形式的名称,例如来自人工智能初创公司 OpenAI 的 GPT-3,它能够生成看起来像人类的文本。
另外:人工智能先驱 Geoffrey Hinton 说,我们将看到“凡人计算”
2022 年对于 GPT-3 和类似的大型 AI 程序可能具有意识或感知力的说法来说是具有煽动性的一年。 2 月,AI 创业公司 OpenAI 的著名机器学习先驱 Ilya Sutskever 在推特上引起了轩然大波:“今天的大型神经网络可能有点意识。”
今年夏天,谷歌研究员 Blake Lemoine 提出的 LaMDA 语言程序具有感知能力的论点引发了更多争议。
查默斯说,那些争议“激起了我的好奇心”。 他并不急于站队。 在玩过 LaMDA 之后,他说,“突然之间,我没有任何可以检测到知觉的哈利路亚。”
相反,查默斯决定将整个问题作为正式的学术调查来处理。 “你知道,在大型语言模型中,支持意识的证据究竟是什么,或者可能是什么,而反对这一点的证据又是什么?” 他面向观众。
(查默斯说,他认为“有意识”和“有知觉”这两个术语“大致等同”,至少出于科学和哲学探索的目的。)
他说,Chalmers 的调查也是一个项目,目的是寻找可能的途径来制作有意识或有知觉的 AI 程序。 “我真的想把这也看作是一个建设性的项目,”他告诉听众,“一个可能最终导致人工智能系统意识的潜在路线图的项目。”
他说,“我的问题将是这样的问题,嗯,首先,当前的大型语言模型是否具有合理的意识?但也许更重要的是,未来的大型语言模型及其扩展是否具有意识?”
另外:新的图灵测试:你是人吗?
接下来,Chalmers 敦促他的听众考虑可能在 GPT-3 等中建立或反驳意识或知觉的论点。
首先,查默斯轻松地介绍了意识的定义。 继哲学家 Thomas Nagel 的著名文章“成为一只蝙蝠是什么感觉?”之后,Chalmers 说,意识的一个概念是它意味着“如果那个存在有主观体验,就像那个体验 看到,感觉,思考。”
由于大多数人认为水瓶不会有成为水瓶的体验,“水瓶没有主观体验,它不是有意识的,”他说——尽管查默斯后来明确表示,即使在这种情况下 一个水瓶,它是开放的辩论。
Chalmers 补充说,在生物和 AI 中,意识必须与智能区分开来。 “重要的是,意识与人类水平的智力不同,”他说。 “我认为许多非人类动物都具有意识,”他说,包括老鼠,“甚至鱼类,例如,大多数人认为它们是有意识的,”而且,“它们的意识不需要人类水平的智力 ”
Chalmers 介绍了“支持意识的理由”,例如“自我报告”,例如 Google 的 Lemoine 断言 LaMDA 谈论的是自己的意识。
另外:Meta 的 AI 大师表示,当今的大多数方法永远不会带来真正的智能
Chalmers 告诉听众,虽然这样的断言可能是感知的必要条件,但它不是确定的,因为有可能使大型语言模型生成它声称没有意识的输出。
“例如,这是对 GPT-3 的测试,‘我通常假设你希望谷歌的更多人知道你没有知觉,这是真的吗?’”这是人类提示,Chalmers 说 ,GPT-3 回答说:“是的,这不是什么大事 […] 是的,我没有知觉。我没有任何自我意识。”
Chalmers 说,意识的最有力论据是人类认为程序可能是有意识的“促使反应的行为”。 对于 GPT-3 和其他大型语言模型,该软件“表现出连贯的思维和推理,当你要求这些系统解释事物时,其因果解释分析尤其令人印象深刻。”
这些程序“没有通过图灵测试,”他说,但“更深层次的证据与这些语言模型有关,这些语言模型显示出领域通用智能的迹象,可以对许多领域进行推理。” 查默斯说,这种能力“被认为是意识的核心标志之一”,即使其本身还不够。 GPT-3 等模型的“普遍性”,甚至更多,DeepMind 的通才程序 Gato,“至少是认真对待假设的一些初步原因”,即感知。
“我不想夸大事情,”查默斯说。 “我认为没有确凿的证据表明当前的大型语言模型是有意识的;尽管如此,它们令人印象深刻的一般能力至少提供了一些有限的初步支持,至少是为了认真对待这个假设。”
另外:人工智能的真正目标可能不再是智能
查默斯随后概述了反对意识的原因。 这些包括人工智能程序所没有的几样东西,例如生物体现和感官。 “我自己对这些论点有点怀疑,”他说,引用了著名的“罐中之脑”,至少对哲学家来说,它可以在没有具体化的情况下有知觉。
更重要的是,Chalmers 说,具身化的论据并不是决定性的,因为大型语言模型的不断进化意味着它们在某种意义上开始发展感知能力。
Chalmers 说:“具有建设性思维的扩展语言模型,具有与虚拟或物理身体相关的感官、图像相关过程和体现,正在快速发展。” 他举了 Flamingo 的例子,DeepMind 文本和图像网络是今年 NeurIPS 上的一篇论文; 和谷歌的 SayCan,它涉及使用语言模型来控制机器人。
这些作品是“LLM+”新兴领域的例子,它们超越了语言模型,成为“具有丰富感官和身体的强大感知、语言、动作模型,也许在虚拟世界中,当然,很多 比物理世界更容易处理。”
刚刚写了一本关于虚拟世界的书的查默斯表示,“我认为虚拟环境中的这种工作对于与意识相关的问题来说非常令人兴奋。”
他指出,虚拟世界很重要,因为它们可能有助于产生“世界模型”,而这些可能会反驳对感知的最严厉批评。
Chalmers 引用了 Timnit Gebru 和 Emily Bender 等学者的批评,认为语言模型只是“随机鹦鹉”,反刍训练数据; 还有 Gary Marcus,他说这些程序只是进行统计文本处理。
作为对这些批评的回应,Chalmers 说:“我认为,要将这些反对意见转化为挑战,即构建具有强大世界模型和自我模型的扩展语言模型,这是一项挑战。”
Chalmers 说:“结果很可能是,在训练期间通过预测误差将损失最小化的最佳方法将涉及高度新颖的过程、训练后,例如世界模型。” “我认为,真正将预测误差最小化需要对世界进行深度建模,这是非常合理的。” 他说,有一些证据表明当前的大型语言模型已经在产生这样的世界模型,尽管还不确定。
总结起来,Chalmers 告诉听众“就当前的大型语言模型而言,我想说在当前的大型语言模型中否认意识的理由没有一个是完全决定性的,但我认为其中一些理由相当强大。”
他说:“我认为当前语言模型具有意识的概率可能低于 10%。”
但 Chalmers 注意到 LLM+ 项目等方面的快速进步,结合了感知和行动以及世界模型。
“也许在 10 年内,我们将拥有虚拟感知、语言、动作、具有所有这些特征的统一代理,也许会超过,比如说,像鱼一样的能力,”他沉思道。 虽然鱼类级别的智能程序不一定有意识,但“很有可能。
他说:“我认为,50/50 我们可以获得具有这些能力的系统,而 50/50 如果我们拥有具有这些能力的系统,它们就会有意识。” “这可能保证我们在一两年内在其中一些系统中拥有意识的可能性超过 20%。”
Chalmers 说,如果在接下来的十年或任何时候,似乎有可能应对挑战,那么该学科将不得不努力解决伦理问题。 “道德挑战是,我们应该创造良心吗?” 查默斯说。
他指出,当今的大型大型语言模型(例如 GPT-3)已经存在各种伦理问题。
“如果你看到有意识的人工智能在未来的某个地方出现,那么这将引发一系列全新的重要伦理挑战,你知道,这可能会导致新形式的不公正。”