7 月 21 日星期五,白宫发布了一份情况说明书,美国一些最大的生成式人工智能公司计划为其内容添加水印。亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 同意围绕以下内容达成八项自愿承诺: 生成人工智能的使用和监督,包括水印。 9 月,又有八家公司同意自愿标准:Adobe、Cohere、IBM、NVIDIA、Palantir、Salesforce、Scale AI 和 Stability AI。
此前,白宫在三月份发表了一份声明,表达了对人工智能滥用的担忧。 该协议达成之际,监管机构正在制定程序,以管理自 ChatGPT 于 2022 年 11 月将人工智能内容置于公众视野以来生成式人工智能对技术以及人们与其互动的方式所产生的影响。
人工智能的八项安全承诺是什么?
八项人工智能安全承诺包括:
人工智能系统发布前的内部和外部安全测试。
在整个行业以及与政府、民间社会和学术界共享有关管理人工智能风险的信息。
投资网络安全和内部威胁防护措施,特别是保护模型权重,这会影响人工智能模型关联的偏见和概念。
鼓励第三方发现和报告其人工智能系统中的漏洞。
公开报告所有人工智能系统的功能、局限性以及适当和不适当使用的领域。
优先研究偏见和隐私。
帮助将人工智能用于癌症研究等有益目的。
开发强大的水印技术机制。
水印承诺涉及生成人工智能公司开发一种将文本、音频或视觉内容标记为机器生成的方法; 它将适用于水印系统锁定后创建的任何公开可用的生成人工智能内容。由于水印系统尚未创建,因此判断内容是否由人工智能生成的标准方法公开还需要一段时间。
政府对人工智能的监管可能会阻止恶意行为者
前微软 Azure 全球副总裁、现任 Cognite 首席产品官 Moe Tanabian 支持政府对生成式 AI 的监管。 在与 TechRepublic 的对话中,他将当前的生成式 AI 时代与社交媒体的兴起进行了比较,其中包括剑桥分析数据隐私丑闻和 2016 年大选期间的其他错误信息等可能带来的负面影响。
“恶意行为者有很多机会利用[生成式人工智能]、使用它和滥用它,而他们正在这样做。 因此,我认为,政府必须有一些水印,一些他们需要实例化和定义的信任元素根,”塔纳比安说。
“例如,手机应该能够检测恶意行为者是否使用人工智能生成的声音留下欺诈性语音消息,”他说。
“从技术上来说,我们并不处于劣势。 我们知道如何[检测人工智能生成的内容],”塔纳比安说。 “关键是要求行业制定这些法规,以便我们能够对人工智能生成的内容进行身份验证,从而建立信任根。”