英国首相的人工智能特别工作组顾问发出了严厉警告:人工智能将在两年内威胁到人类。
顾问马特克利福德在接受 TalkTV 采访时表示,在人工智能变得过于强大之前,人类只有两年的时间来控制和规范它。
“近期的风险实际上相当可怕。 你今天可以使用人工智能来为生物武器创造新的配方或发动大规模的网络攻击,”克利福德说。
“你可能会对人类造成非常危险的威胁,这些威胁可能会杀死很多人——而不是所有的人——仅仅从我们期望模型在两年后出现的地方就可以了。”
同时担任政府高级研究与发明局 (ARIA) 主席的克利福德强调需要一个框架来解决人工智能系统的安全和监管问题。
在采访中,克利福德强调了人工智能系统不断增长的能力以及考虑与之相关的风险的迫切需要。 他警告说,如果安全和法规没有到位,这些系统可能会在两年内变得非常强大,从而在短期和长期带来重大风险。
他引用了一封由 350 位人工智能专家签署的公开信,其中包括 OpenAI 首席执行官萨姆奥特曼,这封信呼吁将人工智能视为一种类似于核武器和流行病的生存威胁。
克利福德解释说:“我认为写信人所谈论的那种存在风险是……一旦我们有效地创造了一个新物种,一种比人类更聪明的物种,会发生什么。”
Clifford 继续强调理解和控制 AI 模型的重要性,并指出对其行为缺乏理解是一个重大问题。 他强调在部署强大模型之前需要进行审计和评估过程,这是许多 AI 开发领导者的共同观点。
“我认为现在要关注的是我们如何确保我们知道如何控制这些模型,因为现在我们不知道,”克利福德说。
在世界各地,监管机构正在努力应对人工智能的快速发展及其带来的复杂性和影响。 监管机构的目标是在用户保护和促进创新之间取得平衡。
在英国,反对党工党的一名成员回应了人工智能安全中心在信中提出的担忧,呼吁对技术进行与医学和核能同等的监管。
在访问美国期间,预计英国首相里希·苏纳克 (Rishi Sunak) 将支持总部设在伦敦的全球人工智能监管机构。 苏纳克表示,他正在“非常仔细地观察”人工智能带来的灭绝风险。
与此同时,欧盟甚至提议对所有人工智能生成的内容进行强制标记,以打击虚假信息。
由于行动时间有限,政策制定者、研究人员和开发人员必须通力合作,确保负责任地开发和部署人工智能系统,同时考虑到与其快速发展相关的潜在风险和影响。