研究人员表示,ChatGPT 依赖于科学成果,需要开源替代品

2023-04-25 0 714

研究人员表示,ChatGPT 依赖于科学成果,需要开源替代品

根据本周发表在著名期刊《自然》上的一项研究,OpenAI 广受欢迎的 ChatGPT 文本生成程序能够传播大量关于科学研究的错误,从而促使人们需要开源替代方案,其功能可以被仔细审查。

另外:微软的 Bing Chat 与用户争论,揭示秘密

“目前,几乎所有最先进的对话式 AI 技术都是少数拥有 AI 技术资源的大型科技公司的专有产品,”主要作者 Eva A. M. van Dis 写道,她是阿姆斯特丹的博士后研究员和心理学家 UMC、荷兰阿姆斯特丹大学精神病学系和几位合作作者。

由于这些项目的谎言,他们继续说,“研究界最紧迫的问题之一是缺乏透明度。”

“为了应对这种不透明性,现在应该优先发展开源人工智能。”

另外:著名的科学期刊编辑说,ChatGPT“缺乏深度和洞察力”

开发了 ChatGPT 并由微软资助的旧金山初创公司 OpenAI 尚未发布 ChatGPT 的源代码。 大型语言模型,即 ChatGPT 之前的生成 AI 类,特别是 OpenAI 于 2020 年推出的 GPT-3,也没有源代码。

各种公司发布的许多大型语言模型不提供其源代码供下载。

在《自然》杂志题为“ChatGPT:研究的五个优先事项”的文章中,作者写道,“将对话式 AI 用于专门研究可能会带来不准确、偏见和剽窃”存在非常广泛的危险,并补充说“研究人员 使用 ChatGPT 有被虚假或有偏见的信息误导的风险,并将其纳入他们的思想和论文中。”

作者引用了他们自己使用 ChatGPT 的经验,以及“一系列需要深入了解精神病学文献的问题和作业”。

另外:Meta 的首席 AI 科学家说,ChatGPT“不是特别创新”,“没有什么革命性的”

他们发现 ChatGPT“经常生成虚假和误导性文本”。

“例如,当我们问‘有多少抑郁症患者在治疗后会复发?’时,它生成了一个过于笼统的文本,认为治疗效果通常是持久的。然而,许多高质量的研究表明,治疗效果会减弱,并且 在治疗完成后的第一年,复发的风险从 29% 到 51% 不等。”

作者并不是在主张取消大型语言模型。 相反,他们建议“重点应该放在拥抱机遇和管理风险上”。

另外:Google 的 Bard 建立在有争议的 LaMDA 机器人之上,该机器人被工程师称为“有意识的”

他们提出了一些管理这些风险的措施,包括用人工智能研究的语言来说,让“人类参与其中”的许多方法。 这包括出版商确保“采取明确的政策,提高人们对对话式人工智能的使用的认识,并要求其透明度,以准备所有可能成为出版记录一部分的材料。”

但 van Dis 及其同事建议,仅靠循环中的人类还不够。 他们写道,大型语言模型的闭源扩散是一种危险。 “ChatGPT 及其前身的基础训练集和 LLM 不公开,科技公司可能会隐藏其对话式 AI 的内部工作原理。”

另外:Check Point 表示,俄罗斯黑客正试图侵入 ChatGPT

私营部门以外的实体需要做出重大努力来推动开源代码作为替代方案:

为了消除这种不透明性,应优先开发和实施开源 AI 技术。 大学等非商业组织通常缺乏跟上 LLM 快速发展步伐所需的计算和财务资源。 因此,我们提倡科学资助组织、大学、非政府组织 (NGO)、政府研究机构和联合国等组织——以及科技巨头——对独立的非营利项目进行大量投资。 这将有助于开发先进的开源、透明和民主控制的人工智能技术。

文章中没有提出的一个问题是开源模型是否能够解决人工智能臭名昭著的“黑匣子”问题。 深度神经网络的确切运作方式——那些具有多层可调参数或权重的网络——甚至对深度学习的从业者来说仍然是个谜。 因此,任何透明度目标都必须指定通过开源模型及其数据源将学到什么。

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 研究人员表示,ChatGPT 依赖于科学成果,需要开源替代品 https://www.7claw.com/55575.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务