直击RSAC现场:人工智能工具成为今年最热门话题
2023-4-29 09:6:23 Author: FreeBuf(查看原文) 阅读量:15 收藏

今年在旧金山举行的RSAC大会上有一个热门话题:人工智能工具。生成式人工智能在网络安全工具中的潜力引发了网络安全专业人士的兴趣。但是人们对人工智能在网络安全中的实际应用,以及用于建立人工智能模型的数据的可靠性提出了质疑。

网络安全战略顾问、GoogleCloud和Cyversity的董事会成员M.K. Palmore在采访中表示:我们目前正处于与人工智能交手的第一局,我们还不知道人工智能对网络安全行业的影响会有多大,也不知道我们最终能看到什么结果。但我们心存希望,整个公司目前也正朝着一个方向努力,这也表明我们看到了人工智能对行业产生积极影响的价值和用途。

不过Palmore也承认,目前我们在人工智能的发展方面确实还有更多的事情要做。他认为随着事物的变化发展,我们都必须转向适应这种新的模式,让这些大型语言模型(llm)和人工智能可供我们使用。Presidio首席信息安全官Dan Lohrmann认为,人工智能在网络安全领域还处于早期阶段。在RSAC大会上提及人工智能工具的话题时,他认为这将是一场变革,人工智能将改变很大一部分产品。这可能会改变进攻方和防守方,就像我们如何组建红队和蓝队那样。

此外他还指出,在精简安全团队使用的工具方面,还有很长的路要走。他说:“我认为我们永远无法实现单一的窗格的资源监控和管理,但目前已经是我见过最精简的程度了。

将AI添加到安全工具

在2023年RSAC大会期间,不少公司都讲述了他们是如何在安全工具中使用生成性人工智能的,例如,谷歌推出了其生成式人工智能工具和安全LLM、Sec-PaLM。Sec-PaLM是基于Mandiant在漏洞、恶意软件、威胁指标和行为威胁参与者概况方面的前沿情报而构建的。

谷歌Cloud的用户体验总监斯蒂芬•海(stephen Hay)表示,LLMs现在达到了一个临界点,它可以以一种以前无法做到的方式将信息语境化。这代表我们现在有了真正的生成式人工智能。

与此同时,亚马逊网络服务(Amazon Web Services)首席信息安全官办公室主任Mark Ryland强调了如何用生成式人工智能检测威胁活动。日常中多关注有意义的数据,尽量减少误报。且唯一能有效做到这一点的方法就是多多训练机器学习,这也是我们安全服务的核心。

该公司最近宣布了一种名为Amazon Bedrock的新工具,用于在AWS上进行构建,其中包含了生成式人工智能。Amazon Bedrock是一项新服务,可以通过API访问来自AI21 Labs、Anthropic、Stability AI和Amazon的基础模型(fm)。此外,Tenable还推出了专门为研究界设计的生成式人工智能安全工具。另外,一份名为《生成式人工智能如何改变安全研究》的报告最近也发布了,该报告探讨了LLMs如何在逆向工程、调试代码、提高web应用程序安全性和云工具可见性等研究领域降低复杂性和提高效率。

该报告指出,ChatGPT正在以“惊人的速度”发展。关于网络安全平台中的人工智能工具,Tenable首席安全官Bob Huber表示,这些工具允许你建立一个数据库,例如,如果你正在寻找渗透测试,目标是X,可能存在哪些漏洞,通常这是一个手动过程,你必须进入并进行搜索,但人工智能可以帮助你更快地获取这些东西。

另外,他补充说目前已经看到一些公司开始使用LLMs。同时他也指出,LLMs所基于的数据并不一定是经过验证的或准确的,因此需要对此设置护栏。因此用自己的数据构建的LLMs,更值得信赖。

有人担心与GPT这样的LLMs挂钩可能会影响安全性。作为安全从业者,了解风险是很重要的。但Huber指出,人们目前还没有足够的时间去了解生成式人工智能的风险。这些工具都旨在简化防御者的工作,但黑莓威胁研究与情报副总裁伊斯梅尔·巴伦苏埃拉指出了生成式人工智能的局限性。

和其他任何工具一样,我们作为防御者会使用,其他攻击者也会使用它。所以说这些生成式人工智能工具的最佳使用方式就是将其作为助手来使用。很明显,它的确可以促进我们的发展。但如果是期望它能彻底改变一切,那答案是否定的。

参考链接:

https://www.infosecurity-magazine.com/news/ai-dominates-rsa/

精彩推荐


文章来源: http://mp.weixin.qq.com/s?__biz=MjM5NjA0NjgyMA==&mid=2651223605&idx=3&sn=8d25b1c72c9fa1e2ec93def5c623ae84&chksm=bd1de4be8a6a6da8c828cc17860914f54329f85704173cf1f06d4b183ac08f28944c7802a6b3#rd
如有侵权请联系:admin#unsafe.sh