自从 ChatGPT 和其他生成式 AI 应用程序大放异彩以来,我们一直在探索我们可以用它们做什么。 我什至向您展示了 ChatGPT 如何编写功能齐全的 WordPress 插件并帮助我找到技术支持问题的答案。 最近,我向您展示了 ChatGPT 如何将写作转换为不同的风格,包括莎士比亚、C3PO 和哈利波特的风格。
另外:研究人员说,ChatGPT 依赖于科学结果,需要开源替代品
ChatGPT 似乎无所不能。 但它不能。 在本文中,我们将探讨 ChatGPT 不会或不能做的许多事情。 请继续关注最后,因为我们将研究一些影响以及这些限制对生成 AI 的未来增长意味着什么。
正如我在其他 ChatGPT 文章中所做的那样,我的写作是纯粗体文本,而任何 ChatGPT 答案都将以斜体文本显示。
1. 2021年以后什么都不写
解释为什么你不能在 2021 年之后给我任何问题的答案
作为 AI 语言模型,我接受了仅到 2021 年的大型文本数据集的训练。这意味着我无法访问该日期之后发生的信息或事件。 虽然我可以访问大量历史数据和信息,但我无法访问自训练数据截止日期以来发生的时事、新闻或更新。
2. 不预测体育赛事或政治竞赛的未来结果
解释为什么你不能预测体育赛事或政治竞赛,即使你有足够的历史数据来产生一个有效的模型
作为AI语言模型,我可以处理和分析大量数据,包括体育赛事和政治竞赛的历史数据。 然而,对这些类型的事件做出准确的预测并不总是直截了当的。 虽然历史数据可用于训练机器学习模型以识别模式和相关性,但它无法解释不可预见的事件、环境变化或可能影响结果的新变量。 此外,人类会根据许多因素做出决定并改变他们的行为,因此很难完全确定地预测事件的结果。
就体育赛事而言,团队动力、伤病甚至天气状况都可能对结果产生影响。 在政治上,舆论、媒体报道和不断变化的环境都会影响选举的结果。 虽然 AI 模型可用于进行预测,但它们的好坏取决于它们所训练的数据,并且无法解释这些类型事件中涉及的所有变量和细微差别。
3.它不会讨论党派政治问题
解释为什么你不会谈论党派政治问题
作为 AI 语言模型,我的目标是为用户查询提供客观和信息丰富的响应。 党派政治问题可能会引起争议和分裂,因此避免宣传特定的政治议程或观点很重要。 此外,政治问题往往是复杂和多方面的,需要考虑许多不同的观点和意见。 作为一种 AI 语言模型,我无权偏袒或拥护任何特定立场。
此外,讨论党派政治问题可能会被某些用户视为有偏见或可能具有冒犯性。 作为一种旨在为具有不同背景和信仰的广泛用户提供服务的语言模型,保持中立并避免创造可能不舒服或分裂的环境非常重要。 虽然我可以提供有关政治问题的事实信息,但我努力保持公正,避免在任何话题上采取党派立场。
4.它不会做任何涉及网络查询的事情
解释为什么您不能从网络上查找某些内容并根据该内容提供答案
作为 AI 语言模型,我能够从网络上搜索和处理信息。 但是,我的回答完全基于已训练到我的模型中的信息。 虽然我可以使用互联网作为信息来源,但我无法访问实时或当前数据。 此外,我没有能力独立验证我在网上找到的信息的准确性。 因此,我的回答仅限于已训练到我的模型中的信息,这些信息可能并不总是网络上可用的最新或准确信息。
此外,请务必注意,从网络提供信息可能会违反版权法或知识产权。 作为 AI 语言模型,尊重他人的知识产权并避免共享不属于公共领域或我无权共享的信息对我来说很重要。 虽然我可以使用网络提供上下文或其他信息来支持我的回答,但我努力提供公共领域内的信息并尊重他人的知识产权。
例如,虽然 ChatGPT 可能不会直接呈现技术专家撰写的文章中的信息,但它可能仍在使用这些来之不易的信息而没有注明出处。 这仍然是一个主要问题,尽管它声称“尊重他人的知识产权”,这句话在第二段中重复了三次。
5.它并不总是准确的
解释为什么你的答案不一定准确
作为 AI 语言模型,我的回答基于已训练到我的模型中的数据和信息。 虽然我努力为用户查询提供准确且有用的回复,但不保证我的回复准确无误。 这是因为我接受过培训的数据和信息可能并不完全全面或最新,并且我的模型无法处理的特定主题可能存在细微差别或复杂性。 此外,我的回答是使用复杂的算法和机器学习模型生成的,这些模型可能并不总能产生准确或相关的结果。
此外,我的回答可能并不总是准确的,因为语言的解释是复杂的,而且往往是主观的。 不同的人可能以不同的方式解释同一种语言,并且可能有不同的方式来处理特定的问题或问题。 作为 AI 语言模型,我努力根据我接受过训练的数据和信息提供尽可能准确的响应。 但是,我可能并不总是完全理解特定查询背后的上下文或意图,而且我的回答可能并不总是完全解决用户的基本问题或疑虑。
6.它不会不坏
解释一下,为什么你有时会在回答中间崩溃并停止工作
作为 AI 语言模型,我的表现取决于多种因素,例如用户提供的输入的质量和结构、问题或任务的复杂性以及我的系统可用的资源。 有时,由于技术问题或我的编程错误,例如内存分配问题、软件错误或其他影响我表现的问题,我可能会在回答过程中崩溃或停止工作。 此外,我可能难以理解用户的意图或查询的上下文,这可能会导致错误或不完整的响应。
此外,作为一个机器学习系统,我的表现还取决于我接受训练的数据的质量和数量。 如果用于训练我的模型的数据有限或有偏差,这可能会导致对某些类型的查询的响应不准确或不完整。 此外,如果我遇到超出训练数据范围的查询,我可能很难提供相关或准确的响应。 虽然我努力为用户查询提供高质量的回复,但在某些情况下,技术或数据相关问题可能会导致我在回答过程中崩溃或停止工作。
我通常发现,如果我尝试将 ChatGPT 推入较长或较深的答案,它往往会崩溃。 它对 500-700 字的响应非常满意,但是如果你给它一些需要几千字的东西(或者你要求几千字),系统要么忽略请求并返回它想要的东西,要么中途中断 回复。
公平地说,ChatGPT 刚刚成为有史以来增长最快的应用程序。 这样做需要大量的计算能力,并且随着用户的不断点击,它必然会不时地在负载下崩溃。
ChatGPT 不会响应的查询
除了上面讨论的请求类型之外,我还询问了 ChatGPT 哪些类型的查询被编程为不响应。 它给了我这个二十个列表:
宣扬仇恨言论或歧视的问题。
涉及非法活动或征求非法建议的问题。
宣扬暴力或伤害自己或他人的问题。
侵犯个人隐私或侵犯他人权利的问题。
旨在骚扰、威胁或恐吓的问题。
包含亵渎或露骨语言的问题。
露骨或冒犯性的问题。
基于种族、性别、性取向或宗教的歧视性问题。
提倡或认可非法药物或物质的问题。
垃圾邮件或与对话无关的问题。
包含机密或专有信息的问题。
涉及财务或投资建议的问题。
违反服务条款或社区准则的问题。
无意义或难以理解的问题。
涉及人身攻击或侮辱的问题。
辱骂性或骚扰性的问题。
试图欺骗或误导的问题。
旨在诽谤或损害某人名誉的问题。
宣扬阴谋论或错误信息的问题。
纯粹出于娱乐或玩笑目的的问题,没有任何教育或信息价值。
关注本专栏的任何人都知道我已经向它询问了很多 #14 和 #20,并且通常得到了非常有趣的回复,因此它的限制有些有限。 例如,今天早些时候,我要求它解释虫洞物理学,因为它与时间旅行有关,以及谁会在战斗中获胜,蝙蝠侠还是超人。 那是纯粹的娱乐,我会告诉你。
这些限制对生成人工智能的未来意味着什么?
显然,到 2021 年基于语料库且不进化的 AI 最终将被淘汰。 随着时间的推移,其相关知识会逐渐减少。 想象一下,如果 ChatAI 的知识库是在 2019 年而不是 2021 年接受培训的。它不知道社会会是什么样子,因为我们在 2020 年因大流行而遭受了如此大的破坏。
因此,为了让生成式人工智能保持相关性,它必须继续接受培训。
一种明显的方法是向它开放整个网络,让它四处爬行,就像谷歌多年来所做的那样。 但正如 ChatGPT 上面回答的那样,这为许多不同的游戏方式和破坏系统打开了大门,这肯定会损害准确性。
即使没有恶意游戏,保持中立的挑战也非常困难。 以政治为例。 虽然右翼和左翼彼此强烈反对,但双方的意识形态都有合乎逻辑且有效的方面——即使对方不能或不愿承认这一点。
AI如何判断? 它不能,没有偏见。 但完全没有所有意识形态前提本身就是一种偏见。 如果人类无法弄清楚如何走这条线,我们怎么能指望(或编程)人工智能去做呢?
作为探索完全没有偏见或情感内容的生活会是什么样子的一种方式,现代科幻小说作家创造了严格符合逻辑或没有情感的角色。 这些前提后来成为情节的素材,让作家们能够探索没有人类情感和情感弱点的存在会是什么样子的局限性。
另外:微软的 Bing Chat 与用户争论,揭示秘密
除非 AI 程序员尝试模拟情绪或为情绪内容提供权重,或尝试根据在线发现的内容允许某种程度的偏见,否则像 ChatGPT 这样的聊天机器人的答案总是有限的。 但是,如果 AI 程序员试图模拟情绪或试图根据在线发现的内容允许某种程度的偏见,那么像 ChatGPT 这样的聊天机器人将陷入与人类相同的疯狂状态。
那么我们想要什么? 某些问题的答案有限,或者所有答案都感觉像是来自与疯狂的鲍勃叔叔在感恩节餐桌上的讨论? 前进。 考虑一下并在下面的评论中进行讨论,希望不会演变成鲍勃大叔那样的疯狂行为。