上周三,美国一些顶级科技高管和生成式人工智能开发领导者在一次闭门两党会议上会见了参议员,讨论了生成式人工智能可能的联邦法规。 据美联社报道,埃隆·马斯克、萨姆·奥尔特曼、马克·扎克伯格、桑达尔·皮查伊和比尔·盖茨等科技领袖出席了会议。 TechRepublic 与商界领袖讨论了政府对生成人工智能的监管下一步的预期,以及如何在不断变化的环境中保持灵活性。
人工智能峰会包括技术领导者和利益相关者
每位与会者都有三分钟的发言时间,随后由参议院多数党领袖查克·舒默和南达科他州共和党参议员迈克·朗兹主持小组讨论。 会议的目的是探讨联邦法规如何应对快速发展的生成式人工智能技术的好处和挑战。
据美联社内部消息人士透露,马斯克和谷歌前首席执行官埃里克·施密特讨论了对生成人工智能对人类构成生存威胁的担忧。 盖茨考虑用人工智能解决饥饿问题,而扎克伯格则关注开源人工智能模型与闭源人工智能模型。 IBM 首席执行官 Arvind Krishna 反对人工智能许可证的想法。 CNN 报道称,NVIDIA 首席执行官黄仁勋也在场。
据美国有线电视新闻网报道,所有论坛与会者都举手支持政府监管生成人工智能。 虽然没有具体的联邦机构被指定为监管生成人工智能任务的负责人,但几位与会者建议由国家标准与技术研究所负责。
包括民权和劳工团体代表在内的会议偏向科技大亨,这一事实令一些参议员感到不满。 支持某些高风险人工智能系统许可的密苏里州共和党参议员乔什·霍利 (Josh Hawley) 称这次会议是“大型科技公司的大型鸡尾酒会”。
“我们非常小心地确保房间里的对话是平衡的,或者尽可能平衡,”加州大学伯克利分校的研究员 Deborah Raji 参加了这次会议,她专门研究算法偏差。 美联社(注:TechRepublic 联系了参议员舒默的办公室,请其对本次 AI 峰会发表评论,截至发稿时我们尚未收到回复。)
美国对生成人工智能的监管仍在发展中
到目前为止,美国联邦政府已向人工智能制造商提出了建议,包括对人工智能生成的内容加水印,并设置防止偏见的防护措施。 Meta、微软和 OpenAI 等公司已将自己的名字列入白宫自愿人工智能安全承诺清单。
许多州已经制定或正在进行与生成人工智能的各种应用相关的法案或立法。 夏威夷通过了一项决议,“敦促国会开始讨论考虑人工智能技术的好处和风险。”
版权问题
在涉及人工智能的法律规则时,版权也是一个需要考虑的因素。 美国版权局在二月份确定,人工智能生成的图像不能受版权保护,尽管用人工智能艺术生成器创作的部分故事可以受版权保护。
数据中心解决方案制造商 DataBank 的首席执行官 Raul Martinek 强调,版权和隐私是“源自生成式人工智能的两个非常明显的问题,立法可以缓解这些问题”。 生成式人工智能消耗大量的能源以及有关人和受版权保护的作品的信息。
“鉴于从加利福尼亚州到纽约州再到德克萨斯州,在没有统一的联邦行动的情况下,各州都在推进州隐私立法,我们可能很快就会看到美国国会采取行动,使美国与其他拥有更全面隐私立法的司法管辖区保持一致, “马丁内克说。
他提到了媒体集团 IAC 董事长兼高级执行官巴里·迪勒 (Barry Diller) 的案例,他建议使用人工智能内容的公司应与出版商分享收入。
“我认为隐私和版权是最终发生时可以首先受到监管的两个问题,”马丁内克说。
正在进行的人工智能政策讨论
2023年5月,拜登-哈里斯政府制定了人工智能开发联邦投资路线图,就人工智能风险和收益主题征求公众意见,并就人工智能在教育领域的问题和优势编写了报告。
“国会能否努力最大限度地发挥人工智能的优势,同时保护美国人民和全人类免受其新风险的影响?”舒默在 6 月写道。
“政策制定者必须确保供应商意识到他们的服务是否可以用于更黑暗的目的,并可能提供问责的法律途径,”美国政府技术顾问、SANS 首席课程主任和教员负责人 Rob T. Lee 说道。 研究所,在给 TechRepublic 的电子邮件中。 “试图禁止或控制服务的发展可能会阻碍创新。”他将人工智能与生物技术或制药行业进行了比较,这些行业可能有害或有益,具体取决于它们的使用方式。 “关键是不要扼杀创新,同时确保能够建立‘问责制’,”李说。
生成式人工智能对企业网络安全的影响
Lee 表示,生成式人工智能将以三种主要方式影响网络安全:
数据完整性问题。
盗窃或逃税等传统犯罪。
勒索软件等漏洞利用。
“即使政策制定者更多地参与,上述所有情况仍然会发生,”他说。
身份验证公司 AuthenticID 的创始人兼总裁布莱尔·科恩 (Blair Cohen) 在给 TechRepublic 的电子邮件中表示:“人工智能的价值被夸大了,也没有被充分理解,但它也吸引了好人和坏人的大量投资。” “关于监管人工智能有很多讨论,但我确信不良行为者不会遵守这些规定。”
另一方面,科恩表示,人工智能和机器学习对于防止当今开放的数百或数千个数字攻击向量的恶意使用也可能至关重要。
企业领导者应及时了解网络安全的最新动态,以防范人工智能和传统数字威胁。 李指出,生成式人工智能产品的发展速度也带来了其自身的危险。
“人工智能的数据完整性方面将是一个挑战,供应商将急于将产品推向市场(并且)不采取适当的安全控制措施,”李说。
政策制定者可以从企业自律中学习
随着大公司对生成式人工智能的一些使用进行自我监管,科技行业和政府将相互学习。
“到目前为止,美国对生成式人工智能立法采取了一种非常协作的方法,邀请专家来讨论所需的政策,甚至只是简单地了解更多关于生成式人工智能、其风险和能力的信息,” 数字解决方案提供商 Presidio 在给 TechRepublic 的电子邮件中。 “随着公司现在尝试监管,我们很可能会看到立法者在制定正式政策时总结他们的成功和失败。”
商业领袖使用生成式人工智能的注意事项
李说,在政策制定者了解生成式人工智能可以做什么的同时,生成式人工智能的监管将“相当缓慢”地进行。
其他人同意这一过程将是渐进的。 科恩预测:“随着政策制定者在该领域获得更多见解和专业知识,监管格局将逐渐演变。”
64% 的美国人希望生成式人工智能受到监管
在 2023 年 5 月发布的一项调查中,全球客户体验和数字解决方案提供商 TELUS International 发现,64% 的美国人希望政府监管生成式 AI 算法。 40% 的美国人认为,在其平台中使用生成式人工智能的公司在消除偏见和虚假信息方面做得不够。
企业可以从透明度中受益
“重要的是,企业领导者应该保持透明并公开传达他们的人工智能政策
并明确地分享其局限性、潜在偏见和意外后果
他们的人工智能系统。”TELUS International 副总裁兼人工智能和机器学习董事总经理 Siobhan Hanna 在给 TechRepublic 的电子邮件中说道。
汉纳还建议,企业领导者应对人工智能算法进行人工监督,确保生成式人工智能传达的信息适合所有受众,并通过第三方审计解决道德问题。
汉纳说:“企业领导者应该制定明确的标准,并制定量化指标,衡量数据及其算法性能的准确性、完整性、可靠性、相关性和及时性。”
面对不确定性,企业如何保持灵活性
洛尔曼表示,企业要跟上不断变化的法规是“极其具有挑战性的”。 他表示,如果公司确实要处理个人数据,则应考虑使用 GDPR 要求作为其人工智能政策的基准。 无论适用什么法规,都应该明确定义有关人工智能的指导和规范。
“请记住,在监管人工智能方面没有广泛接受的标准,组织需要投资创建一个监督团队,不仅要围绕现有法规,还要根据公司政策、价值观和社会责任目标来评估公司的人工智能项目, ”洛尔曼说道。
科恩说,当决定最终确定时,“监管机构可能会强调生成人工智能中的数据隐私和安全性,其中包括保护人工智能模型使用的敏感数据并防止潜在的滥用。”