根据北卡罗来纳大学教堂山分校学者 Matt Perault 周四在博客 Lawfare 上发布的一项分析,OpenAI 广受欢迎的 ChatGPT 程序在内容法律责任方面不会获得社交媒体所享有的相同保护。
“法院可能会发现 ChatGPT 和其他 LLM 是信息内容提供者,”Perault 写道,指的是为 ChatGPT 和许多类似的自然语言人工智能程序提供支持的“大型语言模型”。
另外:什么是 ChatGPT,它为什么重要? 一切都知道
“结果是部署这些生成人工智能工具的公司——如 OpenAI、微软和谷歌——将被排除在人工智能生成内容引起的案件中使用第 230 条,”Perault 预测,指的是标题的第 230 条 美国法典第 47 条,是国会通过的 1996 年电信法的一部分,是通信规范法的一部分。
第 230 条已被 Meta 和其他互联网公司用作挡箭牌,借以免除自己对用户发布的内容的法律责任。
正如 Perault 解释的那样,“根据现行法律,交互式计算机服务(内容主机)不对信息内容提供商(内容创建者)发布的内容负责”,因为“第 230 条规定“[n]o 提供商或用户 交互式计算机服务的发布者应被视为由另一信息内容提供者提供的任何信息的发布者或发言人。”
Perault 指出,这导致两党的美国立法者惊慌失措,他们出于某种原因对 Meta 和 Twitter 以及其他公司的内容审核政策感到不满。
Perault 认为,OpenAI 的 ChatGPT 很可能得不到第 230 条的保护。
根据 Perault 的说法,“相关问题将是法学硕士是否‘开发’内容,至少‘部分’。”
他继续说道,“很难想象,如果法学硕士根据用户请求起草关于某个主题的文本,或者开发文本来总结搜索查询的结果(就像 ChatGPT 可以做的那样)。相比之下, Twitter 不为其用户起草推文,大多数 Google 搜索结果只是识别现有网站以响应用户查询。”
深入:这些专家正在竞相保护 AI 免受黑客攻击。 时间不多了
结果是,“法院可能会发现 ChatGPT 和其他 LLM 被排除在第 230 条保护之外,因为它们是信息内容提供商,而不是交互式计算机服务。”
如果 Perault 是正确的,ChatGPT 和其他生成的 AI 工具最终不会享受第 230 条的保护,“风险是巨大的,”他写道。 “根据联邦和州法律,使用 LLM 的平台将受到广泛的诉讼,”并且“将面临合规雷区,可能要求他们逐个州改变他们的产品,甚至将他们从某些 完全陈述。”