英国数学家艾伦图灵在 1950 年写道:“我建议考虑‘机器能思考吗?’这个问题。”他的询问构成了数十年来人工智能研究的讨论框架。
对于几代研究人工智能的科学家来说,能否实现“真正”或“人类”智能的问题始终是工作的重要组成部分。
人工智能现在可能正处于一个转折点,这样的问题对大多数人来说越来越不重要。
另外:最好的 AI 聊天机器人:ChatGPT 和可供尝试的替代方案
近年来出现的一种叫做工业人工智能的东西可能预示着这种崇高的当务之急的结束。 自人工智能一词由计算机科学家约翰·麦卡锡首次创造以来的 66 年里,人工智能如今的能力比以往任何时候都强大。 因此,人工智能的产业化正在将重点从智能转向成就。
这些成就是了不起的。 它们包括一个可以预测蛋白质折叠的系统 AlphaFold,来自谷歌的 DeepMind 部门,以及来自初创公司 OpenAI 的文本生成程序 GPT-3。 无论是否有人称它们为智能,这两个程序都具有巨大的工业前景。
另外:如何使用 ChatGPT:您需要知道的一切
除其他事项外,AlphaFold 有望设计出新型蛋白质,这一前景令生物学界兴奋不已。 GPT-3 正在迅速找到自己的位置,作为一个可以自动执行业务任务的系统,例如在没有人工干预的情况下以书面形式响应员工或客户的查询。
在芯片制造商英伟达 (Nvidia) 的带领下,在多产的半导体领域取得了实际成功,似乎它可能会超越过去对智能的关注。
在工业人工智能的任何角落,似乎都没有人关心这些程序是否会实现智能。 就好像,面对显示出明显价值的实际成就,老问题,“但它是聪明的吗?” 不再重要。
正如计算机科学家 Hector Levesque 所写,当谈到人工智能科学与技术时,“不幸的是,人工智能技术引起了所有关注。”
可以肯定的是,真正的智力问题对少数思想家来说仍然很重要。 在过去的一个月里,ZDNET 采访了两位非常关心这个问题的著名学者。
Facebook 所有者 Meta Properties 的首席人工智能科学家 Yann LeCun 与 ZDNET 详细讨论了他今年夏天发表的一篇论文,该论文是关于人工智能需要走向何方的一种思考。 LeCun 担心,当今深度学习的主导工作如果只是继续目前的进程,将无法实现他所说的“真正的”智能,其中包括计算机系统规划行动方案的能力 使用常识。
另外:这项新技术可能会摧毁 GPT-4 和类似的东西
LeCun 表达了一位工程师的担忧,即如果没有真正的智能,这样的程序最终将被证明是脆弱的,也就是说,它们可能在执行我们希望它们执行的操作之前就崩溃了。
“你知道,我认为我们完全有可能在没有常识的情况下拥有 5 级自动驾驶汽车,”LeCun 告诉 ZDNET,他指的是 Waymo 和其他公司为自动驾驶构建 ADAS(高级驾驶员辅助系统)所做的努力,“ 但你将不得不设计出它的地狱。”
经常批评深度学习的纽约大学名誉教授加里·马库斯 (Gary Marcus) 本月告诉 ZDNET,人工智能作为一个领域,在发现任何类似人类智能的东西方面都停滞不前。
“我不想争论它是否是智能,”马库斯告诉 ZDNET。 “但是我们可能称之为通用智能或自适应智能的智能形式,我确实关心自适应智能 […] 我们没有那样的机器。”
LeCun 和 Marcus 的担忧越来越显得古怪。 工业 AI 专业人士不想提出尖锐的问题,他们只希望事情顺利进行。 随着越来越多的人开始接触人工智能,数据科学家和自动驾驶汽车工程师等人,从研究的基本科学问题,“机器能思考吗?”这个问题中解脱出来。 变得不那么相关了。
即使是意识到 AI 缺点的科学家也很想将其搁置一旁,以享受该技术的实用性。
另外:我使用 ChatGPT 在这十种晦涩的编程语言中编写了相同的例程
DeepMind 的联合创始人戴米斯哈萨比斯 (Demis Hassabis) 是一位比马库斯或勒昆更年轻的学者,但他注意到实用与深刻的二分法。
2019 年,哈萨比斯在新泽西州普林斯顿高等研究院的一次演讲中指出,许多人工智能程序的局限性在于它们只能做好一件事,就像一个白痴学者。 哈萨比斯说,DeepMind 正在努力开发更广泛、更丰富的能力。 “我们正试图找到一个元解决方案来解决其他问题,”他说。
然而,Hassabis 对最新的 DeepMind 发明所擅长的特定任务同样着迷。
另:如何使用ChatGPT编写Excel公式
当 DeepMind 最近公布了一种改进的方法来执行线性代数(深度学习的核心数学)时,Hassabis 称赞了这一成就,而不管其是否具有智能。
“事实证明一切都是矩阵乘法,从计算机图形到训练神经网络,”哈萨比斯在推特上写道。 或许这是真的,但它有可能放弃对智能的追求,转而支持简单地改进工具,就好像在说,如果它有效,为什么还要问为什么?
人工智能领域正在发生态度转变。 过去的情况是,人工智能程序的每一项成就,无论多好,都会受到怀疑的评论,“好吧,但这并不意味着它是智能的。” 这种模式被 AI 历史学家 Pamela McCorduck 称为“移动球门柱”。
另:如何使用ChatGPT写代码
如今,事情似乎反其道而行之:人们倾向于随意地将智能归因于任何标记为 AI 的事物。 如果像谷歌的 LAMDA 这样的聊天机器人能产生足够多的自然语言句子,有人会认为它是有感知力的。
图灵本人预见到了这种态度的转变。 他预测,谈论计算机和智能的方式将转变为支持将计算机行为视为智能。
图灵写道:“我相信,到本世纪末,文字的使用和一般教育的观点将发生巨大变化,以至于人们将能够谈论机器思考而不会自相矛盾。”
随着关于智力的真诚问题逐渐消失,空洞的智力修辞被允许在社会中自由流动以服务于其他议程。
另外:英伟达首席执行官黄仁勋:人工智能语言模型即服务“可能是有史以来最大的软件机会之一”
最近,计算机行业高管迈克尔·霍赫伯格和退休空军将军罗伯特·斯伯丁在 Fast Company 上发表了一篇精彩纷呈的赞美诗,作者对情报做出了油嘴滑舌的断言,认为这是在他们对地缘政治的可怕警告中加入管风琴音乐的一种方式。 风险:
训练人工智能系统的风险再高不过了。 人工智能是第一个令人信服地复制人类思维独特能力的工具。 它有能力为每一位公民创造独特的、有针对性的用户体验。 这可能是最终的宣传工具,一种历史上从未存在过的欺骗和说服武器。
大多数学者都同意,“通用人工智能”,即使作为一个术语有意义,也绝不是今天的技术所能实现的。 Hochberg 和 Spalding 关于程序可以做什么的说法被夸大了。
另外:人工智能可能使我们很快就能与动物交谈。 就是这样
这种关于 AI 正在完成什么的漫不经心的断言掩盖了 LeCun 和 Marcus 等人微妙的言论。 一种修辞制度正在形成,它关注的是说服力,而不是智慧。
这可能是可预见的未来的发展方向。 如果人工智能越来越多地完成生物学、物理学、商业、物流、市场营销和战争等领域的工作,并且随着社会对它越来越适应,那么愿意问的人可能会越来越少,但它是吗? 聪明的?