一些人工智能专家签署了关于不受控制的技术发展的警告信; 这份 22 个字的声明将人工智能称为“社会规模的风险”。 与此同时,监管机构正在努力确定他们在生成人工智能的使用方面的立场。 科技行业内部拟议的监管或警告可能会如何影响企业可以使用哪些人工智能工具?
专家警告人工智能风险
人工智能安全中心本周关于人工智能风险的声明非常简洁:“减轻人工智能带来的灭绝风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”
人工智能安全中心表示,这份简短的声明旨在“展开讨论”并鼓励广泛采用。 比尔·盖茨、人工智能先驱杰弗里·辛顿和谷歌 DeepMind 首席执行官德米斯·哈萨比斯都是签署者之一。
人工智能安全中心是一家非营利组织,成立的目的是“降低人工智能带来的社会规模风险”。 该中心列出了它预计人工智能可能造成的问题,包括被用于战争、错误信息、通过内容创作使人们变得激进、对人工智能自身内部运作的“欺骗”,或者“突然出现的能力或目标” 人工智能的创造者。
在此声明之前,生命未来研究所于 2023 年 3 月发表了一封公开信,警告不要使用人工智能,并要求人工智能公司暂停开发六个月,可能是在政府暂停的情况下。
围绕生成人工智能的一些担忧被批评为假设性的。 其他团体,包括欧盟-美国 贸易和技术委员会计划将其中一些考虑因素纳入即将出台的政策中。 例如,一份联合声明指出,理事会致力于“限制人工智能对普遍人权和共同民主价值观构成的挑战”,而欧盟人工智能法案限制人工智能在预测性警务中的使用或在边境巡逻中使用情绪识别 。
欧盟政策可能会影响全球人工智能风险管理规则
OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 是该警告声明的签署人之一,他也是出席欧盟-美国会议的人士之一。 贸易和技术委员会周三举行会议。 据彭博社报道,他的公司对欧盟的过度监管持谨慎态度,但表示他确实计划遵守这些规定。
欧盟委员会副主席玛格丽特·维斯塔格在理事会会议后表示,该理事会计划在未来几周内制定人工智能行为准则草案。 她建议将外部审计和水印作为防止人工智能生成内容被滥用的可能保障措施。
维斯塔格希望看到她的委员会在拟议的人工智能法案通过欧盟立法程序可能需要两到三年的时间之前起草他们的行为准则。人工智能法案正在进行中,接下来需要在欧洲议会审议。 议会,最快可能在六月举行。
欧盟委员会主席乌苏拉·冯德莱恩 (Ursula von der Leyen) 在给路透社的评论中表示,七国集团也在研究监管 ChatGPT 等生成式人工智能,以确保其“准确、可靠、安全和非歧视”。
美国政府探索人工智能的“风险与机遇”
国家安全委员会发言人亚当·霍奇在彭博社获得的一份声明中表示,美国政府正在制定一项计划,“针对人工智能相关风险和机遇,采取一致、全面的方法”。
据报道,在美国,理事会会议后,拜登政府内部的个人情绪分为两派:一派希望利用人工智能以保持竞争力,另一派则支持欧盟监管人工智能的计划。
人工智能法规对企业意味着什么?
制造人工智能驱动产品或运行人工智能的硬件和软件的组织应该密切关注欧盟提出的法规的进展。 州法规最终也可能发挥作用,例如加州提议限制人工智能在招聘和其他可能影响个人生活质量的决策中的使用方式。
组织还应该考虑自己的道德政策与人工智能执行任何面向人类的决策任务的时间和地点之间的关系。