Meta 向公众发布了 BlenderBot 3 聊天机器人,其中包含内置的“安全食谱”,它声称可以将攻击性反应减少多达 90%,但该机器人会撒谎并且很粗鲁。
美国的访客可以在线访问 BlenderBot 3 演示,并且很快就会在其他国家/地区提供。
“BlenderBot 3 能够搜索互联网以讨论几乎任何话题,它旨在通过自然对话和‘野外’人们的反馈来学习如何提高技能和安全性,”Meta 在博客中说。
Meta 向公众发布聊天机器人的研究的一个关键部分是帮助开发聊天机器人的安全措施。
“我们开发了新技术,可以向乐于助人的老师学习,同时避免向那些试图欺骗模型做出无益或有毒反应的人学习,”它说,指的是早期在自动区分有用用户和巨魔之间的研究。
微软 2016 年在其 Tay.ai 公开测试版中的聊天机器人事故准确地展示了当人类与聊天机器人互动时会发生什么,聊天机器人可以被训练如何说出可怕和种族主义的评论。
Meta 警告说,BlenderBot 3 也会说一些坏话。 这似乎是 Meta 的主要未解决问题,尽管它有一个可以从反馈中学习的模型。
“尽管已经完成了所有工作,但我们认识到 BlenderBot 仍然可以说出我们不引以为豪的话,”它在 BlenderBot 3 常见问题解答页面中说。
“这更有理由让研究社区参与进来。如果不能直接访问这些模型,研究人员设计检测和缓解策略的能力就会受到限制。”
Meta 鼓励用户在聊天机器人说出任何令人反感的话时进行举报。 它还警告机器人可以做出虚假或自相矛盾的陈述。 聊天机器人甚至忘记了他们是机器人并体验“幻觉”,Meta 对机器人自信地说出不真实内容的描述。
“不幸的是,该机器人可以做出虚假或矛盾的陈述。用户不应依赖该机器人获取事实信息,包括但不限于医疗、法律或财务建议,”它指出。
“在研究中,我们说像为这个机器人提供动力的模型有‘幻觉’,机器人自信地说出一些不真实的东西。机器人也可能记错当前对话的细节,甚至忘记他们是一个机器人。 “
之所以称为 BlenderBot,是因为 Meta 之前的研究发现,通过教机器人“混合”多种对话技能,比训练机器人一次学习一种技能更能提高性能。
谷歌的目标是通过 2021 年年中推出的 LaMDA 或“对话应用程序的语言模型”来改善聊天机器人和对话式人工智能的“事实基础”。 谷歌对 LaMDA 进行了对话培训,旨在使其能够进行自由流畅的对话。 它在 5 月份的 I/O 大会上发布了 LaMDA 2,并为研究人员提供了 AI Test Kitch 应用程序,让其他人体验“将 LaMDA 掌握在手中”的感觉。
在 Google 工程师 Blake Lemoine 公开发布文件“LaMDA Sentient?”后,LaMDA 在 6 月成为人们关注的焦点,他在 4 月向 Google 高管展示了该文件。 他在其中建议该模型可能是“有知觉的”。 许多人不同意 LaMBDA 已经达到这一点。
LaMDA 是一个 1370 亿个参数的模型,它在 Google 的 1024 个 Tensor Processing Unit 芯片上运行了将近两个月的时间来开发。 但谷歌除了自己的工程师外,没有向任何人发布 LaMDA。
Meta 说 BlenderBot 3 是一个 1750 亿参数的“对话模型,能够通过访问互联网和长期记忆进行开放域对话。” 它现在是公开可用的,这使得 Meta 可以在比通过研究更多样化的环境中研究其功能。
Meta 指出,它结合了机器学习技术 SeeKeR 和 Director,以构建从交互和反馈中学习的对话模型。
“初步实验已经表明,随着越来越多的人与模型互动,它从经验中学到的越多,并且随着时间的推移变得更好和更安全——尽管安全仍然是一个悬而未决的问题,”Meta 指出。