在网络安全方面,人工智能正在迅速成为可取之处。 在 Statista 最近发表的一篇文章《2019 年依靠人工智能应对网络攻击(按国家/地区)》中,Shanhong Liu 表示:“截至 2019 年,约 83% 的美国受访者认为,他们的组织将无法应对 没有人工智能的网络攻击。”
这一惊人的统计数据引起了马丁·班克斯 (Martin Banks) 的注意,他在他的《未来机器人》文章《我们应该给予人工智能哪些安全特权?》中提出了以下问题:
我们允许人工智能控制的东西是否有限制?
我们应该赋予人工智能哪些安全特权?
多少网络安全可以安全地实现自动化?
班克斯表示,人工智能是一个出色的工具:
对用户进行身份验证和授权
检测威胁和潜在的攻击向量
立即采取行动应对网络事件
通过自然语言处理学习新的威胁概况和向量
保护条件访问点
识别病毒、恶意软件、勒索软件和恶意代码
结论是人工智能可以成为一种强大的网络安全工具。 在实时监控、威胁检测和立即行动方面,人工智能技术无与伦比。 班克斯表示:“人工智能安全解决方案的反应速度比人类更快、更准确。” “人工智能技术还使安全专业人员能够专注于关键任务操作。”
这是棘手的部分
为了使人工智能发挥作用,该技术需要访问数据,包括敏感的内部文档和客户信息。 班克斯表示,他明白如果没有这种访问权限,人工智能技术就毫无价值。
尽管如此,班克斯还是表达了担忧。 人工智能技术的局限性源于以下任何一项:缺乏系统资源、计算能力不足、算法定义不明确、算法实施不佳或规则和定义薄弱。 他说:“人类设计的人工智能在处理数据集时也会表现出各种偏见,通常会模仿其创造者。”
这说明了班克斯对人工智能技术所赋予的安全特权的担忧。 人工智能技术可能会接近完美,但永远不会完全达到完美。 异常现象始终存在,我们不要忘记人工智能网络犯罪分子以及他们颠覆人工智能系统弱点的能力。
支持人工智能在网络安全方面享有特权的争论多于不支持的争论。 班克斯认为,诀窍在于在人工智能(精确)和人类(细致入微)输入之间取得平衡。
人工智能与人机交互是最好的解决方案
班克斯表示,关键决策,尤其是有关用户的决策,应委托给人类分析师,由他对如何进行或更改内容拥有最终决定权。 “如果用户是合法的,但由于误解而被标记为恶意怎么办?” 班克斯问道。 “该用户可能会错过一整天或更长时间的工作,具体取决于确定发生了什么情况所需的时间。”
Immuniweb.com 博客《2021 年实施人工智能和机器学习系统时最常见的 7 个错误》的作者对此表示同意。 “人工智能有一定的局限性,”作者说。 “一般来说,人工智能系统可以用作额外的工具或智能助手,但不能取代经验丰富的网络安全专家,这些专家除其他外还了解潜在的业务背景。”
为了证明人工智能流程的人为干预和控制,班克斯使用了一个物理安全示例:自动安全门来限制未经授权的流量。 班克斯说:“格栅和大门可将不受欢迎的人拒之门外,并允许授权人员进入房产。” “然而,大多数高度安全的地点都设有人类警卫,作为额外的预防和威慑。”
“门禁系统可以分析员工和供应商的 ID 徽章,并立即做出是否提供访问的决定,”他说。 “但这都是数据和算法驱动的。 驻扎在附近的人类警卫可以帮助确保系统不会被利用或根据错误的逻辑做出错误的决定。”
班克斯的论点不是是否应该部署人工智能技术。 他关心的是技术所依赖的基础。 如果基础建立得正确并有保障措施,我们所有人都会受益。