生成式人工智能正处于关键时刻。 像微软的 Copilot 这样的生成式人工智能聊天机器人已经变得相对容易部署,但有些机器人可能会返回错误的“幻觉”或暴露私人数据。 两全其美的可能来自于对组织数据进行安全训练的更专业的对话式人工智能。 为了处理所有这些数据,戴尔与 NVIDIA 合作。 H100 Tensor Core GPU 和 NVIDIA 网络是戴尔新 Project Helix 的支柱,这是一项影响广泛的服务,将帮助组织运行生成式 AI。
戴尔科技世界 2023 本周将这一主题带到了拉斯维加斯。 在会议的第一天,首席执行官 Michael Dell 和其他高管深入探讨了 AI 可以为 ChatGPT 之外的企业做些什么。
迈克尔·戴尔表示:“企业将能够以更便宜、更安全的方式在特定的机密数据上训练更简单的人工智能模型,从而推动生产力和效率的突破。”
Project Helix 将于 2023 年 6 月首次作为公共产品提供。
戴尔的 Helix AI 为专用用例提供自定义词汇表
戴尔科技集团产品营销、基础设施解决方案集团和电信高级副总裁瓦伦·查布拉 (Varun Chhabra) 表示,企业正在竞相为特定领域的用例部署生成式人工智能。 戴尔的解决方案 Project Helix 是一个全栈本地产品,公司可以在其中培训和指导自己的专有人工智能。
例如,Forrester 分析师 Rowan Curran 表示,一家公司可能会部署一个大型语言模型来阅读其网站上的所有知识文章,并根据这些文章的摘要回答用户的问题。 它不会从整个互联网中汲取灵感。 相反,人工智能将从知识文章中的专有内容收集数据。 这将使其能够更直接地满足特定公司及其客户的需求。
Forrester 高级分析师布伦特·埃利斯 (Brent Ellis) 表示:“戴尔的战略实际上是硬件、软件和服务战略,使企业能够更有效地构建模型。” “为模型创建和培训提供简化、经过验证的平台将成为未来不断增长的市场,因为企业希望创建专注于需要解决的特定问题的人工智能模型。”
创建公司特定人工智能模型的挑战
然而,企业在尝试将人工智能转变为满足公司的特定需求时会遇到一些障碍。
“毫不奇怪,出现了很多特定需求,”查布拉在戴尔会议上表示。 “像结果这样的事情必须值得信任。 它与任何人都可以访问的通用模型非常不同。 可能有各种各样需要警惕的答案或需要警惕的问题。”
幻觉和错误的断言很常见。 对于涉及专有信息或匿名客户行为的用例,隐私和安全至关重要。
NVIDIA 人工智能软件产品管理副总裁 Kari Ann Briski 表示,出于隐私和安全考虑,企业客户也可能选择定制的本地人工智能。
此外,云中的计算周期和推理成本往往更高。
“一旦你有了训练模型,并且根据你的品牌声音和数据对其进行了定制和调整,运行未经优化的推理以节省计算周期是许多客户关心的另一个领域,”布里斯基说。
不同的企业对生成式人工智能有不同的需求,从使用开源模型的企业到可以从头开始构建模型或想要弄清楚如何在生产中运行模型的企业。 人们会问:“训练基础设施与推理基础设施的正确组合是什么?如何对其进行优化? 你如何运行它进行生产?” 布里斯基问道。
戴尔将 Project Helix 描述为一种实现安全、可靠、个性化的生成式 AI 的方法,无论潜在客户如何回答这些问题。
“随着这项技术的进步,我们看到越来越多的工作使模型尽可能小和高效,同时仍然达到与大型模型相似的性能水平,这是通过针对特定的微调和精炼来完成的 任务,”柯兰说。
改变 DevOps——一次一个机器人
像这样的本地人工智能在运营中适合什么地方? 埃利斯说,从代码生成到单元测试的任何地方。 专注的人工智能模型尤其擅长于此。 一些开发人员可能会使用 TuringBots 等人工智能来完成从计划到部署代码的所有工作。
Briski 表示,在 NVIDIA,开发团队一直在采用名为 LLMOps 的术语来代替机器学习操作。
“你不是在编码;而是在编码。” 你在问人类的问题,”她说。
反过来,通过主题专家的人类反馈进行强化学习可以帮助人工智能了解它是否正确响应提示。 这是 NVIDIA 使用 NeMo 框架(一种用于构建和部署生成式 AI 的工具)的一部分。
“开发人员现在使用该模型的方式在维护和更新方面将完全不同,”布里斯基说。
NVIDIA 硬件的幕后花絮
Project Helix 背后的硬件包括 H100 Tensor GPU 和 NVIDIA 网络,以及戴尔服务器。 布里斯基指出,形式服从功能。
“对于我们的每一代新硬件架构,我们的软件都必须在第一天就做好准备,”她说。 “在芯片流片之前,我们还会考虑最重要的工作负载。
”……例如,对于 H100,它是 Transformer 引擎。 NVIDIA Transformer 对于我们自己和世界来说都是非常重要的工作负载,因此我们将 Transformer 引擎放入 H100 中。”
Varun 表示,戴尔和 NVIDIA 共同开发了 PowerEdgeXE9680 和 PowerEdge 系列服务器的其他产品,专门用于复杂的新兴 AI 和高性能计算工作负载,并且必须确保其能够大规模执行并处理高带宽处理。 。
Briski 指出,自 2017 年在 Volta GPU 上训练基于视觉的人工智能以来,NVIDIA 已经取得了长足的进步。 现在,NVIDIA 使用数百个节点和数千个 GPU 来运行其数据中心基础设施系统。
NVIDIA还在其硬件设计中使用了大语言模型AI。
Briski 表示:“六七年前,当深度学习出现时,(NVIDIA 首席执行官)Jensen(黄)就向 NVIDIA 提出了挑战,要求他们做的一件事是每个团队都必须采用深度学习。” “他正在为大型语言模型做同样的事情。 半导体团队正在使用大型语言模型; 我们的营销团队正在使用大型语言模型; 我们构建了用于内部访问的 API。”
这又回到了安全和隐私护栏的概念。 例如,NVIDIA 员工可以询问人力资源 AI 是否可以获得人力资源福利来支持收养孩子,但不能询问其他员工是否收养了孩子。
您的企业应该使用定制生成人工智能吗?
如果您的企业正在考虑是否使用生成式人工智能,您应该考虑它是否有必要和能力大规模改变或优化人工智能。 此外,您还应该考虑您的安全需求。 Briski 警告不要使用公共 LLM 模型,这些模型在查找数据来源时是黑匣子。
特别重要的是,能够证明进入该基础模型的数据集是否可以用于商业用途。
埃利斯说,与戴尔的 Project Helix、微软的 Copilot 项目和 IBM 的 watsonx 工具一起,展示了专用人工智能模型方面可用的广泛选择。 HuggingFace、Google、Meta AI 和 Databricks 提供开源法学硕士,而 Amazon、Anthropic、Cohere 和 OpenAI 提供人工智能服务。 Facebook 和 OpenAI 可能有一天会提供自己的本地选项。 许多其他供应商正在排队尝试加入这个热闹的领域。
埃利斯说:“通用模型可以接触到更大的数据集,并且能够建立专用模型中更有限的数据集无法访问的连接。” “然而,正如我们在市场上看到的那样,通用模型可能会做出错误的预测并产生‘幻觉’。
“专门构建的模型有助于限制这种幻觉,但更重要的是模型创建后进行的调整。”
总的来说,这取决于组织想要使用人工智能模型的目的,以及他们是否应该使用通用模型或训练自己的模型。