Black Hat(黑帽)和DEF CON上AI的现实主义占主导地位

在最近的安全行业聚会上,对生成式人工智能的现实主义和谨慎开始取代对其的惊奇和困惑。
Black Hat(黑帽)和DEF CON上AI的现实主义占主导地位

这是一个迅速发展的过程,即使对于IT行业也是如此。在2022年的黑帽大会上,首席信息安全官们表示他们不想听到“AI”这个词;在2023年的RSA大会上,几乎每个人都在谈论生成式人工智能,并猜测它将对安全行业带来巨大的变革;在2023年的美国黑帽大会上,人们仍然在讨论生成式人工智能,但对话集中在如何将这项技术作为对人类操作员的辅助,并在AI引擎的限制内工作。总体而言,这显示了从令人兴奋的炒作到更实际的现实主义的迅速转变。

这种现实主义受到欢迎,因为生成式人工智能绝对将成为未来几年内网络安全产品、服务和运营的一个特点。这其中的原因之一是网络安全专业人员短缺将在未来几年内继续存在。随着生成式人工智能的使用集中在增强网络安全专业人员的效能上,而不是替代全职员工,我没有听到有人讨论通过生成式人工智能来缓解人才短缺问题。我听到的是如何利用生成式人工智能使每个网络安全专业人员更加高效,特别是让一线分析师能够像“1.5线分析师”一样高效,因为这些经验较少的分析师能够为高层分析师提供更多的上下文信息、更多的确定性和更多的指导选项,使警报更有针对性。

必须了解限制

关于生成型人工智能(generative AI)的应用,人们都认识到了这项技术的局限性。这不是一些“我们能否逃离《黑客帝国》里的未来”之类的讨论,而是一些关于企业如何合理利用这项技术的能力和用途的坦诚对话。

我听到了两个值得讨论的局限性。一个是关于模型的训练方式,另一个是关于人类对技术的反应。在第一个问题上,大家都同意,没有任何一种人工智能部署能够超过它所依赖的数据。与此同时,人们也意识到,为了获取更大的数据集,可能会引发一些关于隐私、数据安全和知识产权保护的问题。我越来越多地听到一些公司谈论“领域专业知识”和生成型人工智能的结合:即限制人工智能实例的范围,只针对一个特定的主题或领域,并确保它对该主题或领域的提示进行最佳的训练。在未来的几个月里,你会听到更多关于这方面的内容。

第二个局限性被称为“黑箱”局限性。简单地说,人们往往不信任魔法,而人工智能引擎对于大多数高管和员工来说就是最深奥的魔法。为了增加人们对人工智能结果的信任,安全和IT部门都需要提高模型的训练、生成和使用过程的透明度。请记住,生成型人工智能主要是作为人类工作者的辅助工具。如果这些工作者不信任他们从提示中得到的回复,那么这种辅助就会大打折扣。

明确你的概念

在两个会议上,有一个问题仍然存在着混淆:当人们说“人工智能”时,他们指的是什么?在大多数情况下,人们在讨论这项技术的可能性时,即使他们只说“人工智能”,他们实际上是指生成型人工智能(generative AI)或大型语言模型(LLM)。而其他人,听到这两个简单的字母,就会指出人工智能已经是他们的产品或服务的一部分多年了。这种断层突显了一个事实:在一段时间内,明确定义概念或者在谈论人工智能时非常具体是至关重要的。

例如,多年来用于安全产品的人工智能使用的模型比生成型人工智能小得多,生成响应的速度也更快,而且对于自动化非常有用。换句话说,它适用于快速地找到一个反复提出的非常具体的问题的答案。而生成型人工智能则可以使用从巨大数据集构建的模型来回应更广泛的问题。但是,它并不能始终快速地生成响应,使其成为自动化的绝佳工具。

还有更多的对话和文章,但是LLM人工智能已经成为网络安全领域的一个热门话题。请做好准备参与未来的讨论。

推荐阅读:

黑客通过帮助台目标高特权的Okta账户

揭秘短网址背后的灰色产业

  • 点赞
  • 打赏
请选择打赏方式
  • ERC-20
  • TRC-20