ChatGPT 和 Google 的 Bard:我们是不是在所有错误的地方寻找答案?

2023-04-14 0 590

ChatGPT 和 Google 的 Bard:我们是不是在所有错误的地方寻找答案?

在 AI 令人瞩目的进步的推动下,互联网搜索的新时代正在开启。 OpenAI 的对话式聊天机器人 ChatGPT 推出仅几个月后,就让谷歌重新考虑其基础服务,并为微软等其他科技公司开辟了新天地。

考虑到市场的演变方式,聊天机器人等对话工具可能会扰乱搜索业务也就不足为奇了。

大约二十年来,谷歌一直是全球主导的搜索引擎,它表示其使命是“整合全球信息,使人人都可以访问并从中受益”。

然而,世界信息继续以令人眼花缭乱的速度积累。 研究公司 IDC 去年预测,到 2026 年,每年创建的数据量将超过 221,000 艾字节。这是 2022 年创建的数据量的两倍多。

为网站编制索引的搜索引擎当然是组织所有信息的有效方式,但不一定是使信息有用的最佳方式。

另外:最好的 AI 聊天机器人:ChatGPT 和其他值得尝试的有趣替代方案

事实上,收集和组织数据是如此简单,以至于仅筛选您自己的数据或您在工作中搜索的数据都可能是一个挑战。 您还记得上次您不得不在公司的人力资源平台上进行筛选以弄清楚如何提交费用报告时花了多长时间吗?

这些挑战为下一次搜索迭代提供了机会。

“当人们想到谷歌时,他们通常会想到向我们寻求快速的事实答案,比如‘钢琴有多少键?’”谷歌首席执行官桑达尔皮查伊本周在一篇博客文章中写道,介绍了谷歌自己的实验性人工智能聊天机器人, 诗人。 “但越来越多的人转向谷歌寻求更深入的见解和理解——比如,‘钢琴或吉他更容易学吗,每种都需要多少练习?’ 学习这样的话题可能需要付出很多努力才能弄清楚你真正需要知道什么,而且人们通常希望探索各种各样的观点或观点。”

皮查伊补充说:“人工智能在这些时刻可以提供帮助,它可以针对没有正确答案的问题综合见解。”

然而,问题在于,这些以对话形式巧妙包装的主观见解通常必须以某种事实为基础。

另外:如何开始使用 ChatGPT

正如萨布丽娜·奥尔蒂斯 (Sabrina Ortiz) 为 ZDNET 解释的那样,这些会话式聊天机器人旨在与人交谈——不一定提供准确的答案。 据 OpenAI 称,OpenAI 使用人类反馈强化学习 (RLHF) 来训练其语言模型。 人类 AI 培训师为模型提供对话,他们在其中扮演两个角色,即用户和 AI 助手。 该模型不会要求对模棱两可的问题进行澄清,而只是猜测您的问题的含义,这可能会导致对问题的意外回答。

这已经导致开发人员问答网站 StackOverflow 至少暂时禁止 ChatGPT 生成的问题回复。 “主要问题是,虽然 ChatGPT 产生的答案有很高的错误率,但它们通常看起来可能不错,而且答案很容易产生,”Stack Overflow 版主解释道。

OpenAI 自己承认,“ChatGPT 有时会写出看似合理但不正确或荒谬的答案。”

谷歌的 Bard 似乎试图通过允许其模型利用外部来源最近创建的数据来解决这个问题。 Bard 基于 LaMDA,一种由 Google 开发的大型语言模型。 LaMDA 的开发人员,正如 Tiernan Ray 为 ZDNET 指出的那样,特别关注如何改进他们所谓的“事实基础”。 为此,他们允许程序调用外部信息源,超出其在开发过程中已经处理的信息,即所谓的培训阶段。

另外:最好的 AI 作家:ChatGPT 和其他值得尝试的有趣替代品

然而,谷歌最近的 Bard 演示出了问题,恰恰说明了为什么利用外部信息源是一项冒险的业务,特别是对于优先考虑连贯性而不是准确性的 AI 模型。 在回答这个问题时,“我可以告诉我 9 岁的孩子关于詹姆斯·韦伯太空望远镜的哪些新发现?” 巴德说望远镜拍摄了有史以来第一张系外行星的图像——这是不对的。

巴德是如何最终给出这个不准确的陈述的? 这可能与有关该主题的可用外部信息的质量有关。 任何计算机科学家都知道,“输入垃圾,输出垃圾”。

事实上,美国宇航局自己关于詹姆斯韦伯太空望远镜的材料——无疑试图以尽可能最好的光线描绘望远镜——是模棱两可的。 2022 年 9 月,该机构写道:“天文学家首次使用 NASA 的詹姆斯韦伯太空望远镜拍摄了太阳系外行星的直接图像。” 需要澄清的是,这是这台特定望远镜第一次直接拍摄系外行星的图像——但另一台望远镜早在 2004 年就这样做了。

解决这些聊天机器人缺点的一种直接方法是提供尽可能多的透明度。 微软新版 Bing 搜索引擎运行在下一代 OpenAI 大型语言模型上,并在其答案中引用了其来源。

另外:ChatGPT 参加了 MBA 考试。 这是怎么做的

那么,这会给我们留下什么? 当然,正如微软指出的那样,它一如既往地帮助用户以怀疑的眼光并清楚地了解它们的工作原理来利用这些工具。

“Bing 的目标是将其所有响应都建立在可靠来源的基础上——但 AI 可能会出错,互联网上的第三方内容可能并不总是准确或可靠的,”Bing 常见问题解答部分写道。 “Bing 有时会歪曲它找到的信息,你可能会看到听起来很有说服力但不完整、不准确或不合适的回复。在根据 Bing 的回复做出决定或采取行动之前,请运用你自己的判断并仔细核对事实。”

我们的新数字朋友可能想提供帮助,但依赖他们是不明智的。

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 ChatGPT 和 Google 的 Bard:我们是不是在所有错误的地方寻找答案? https://www.7claw.com/55065.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务