ChatGPT 在 OpenAI 于 2022 年 11 月 30 日开放测试后风靡全球。对于一个多年来在很大程度上不令人满意的人工智能和机器学习“创新”所困扰的行业来说,反应非常有说服力。像许多对其潜力感到兴奋的人一样,我相信现在终于是明确人工智能在信息安全方面真正的革命性的时刻。
这也非常发人深省,因为已经有无数的例子表明它如何改变各种黑帽的游戏规则。在第一个概念验证中,纽约大学教授Brendan Dolan-Gavitt使用ChatGPT来利用缓冲区溢出漏洞。其他示例包括以闪电般的速度编写恶意软件,以及制作令人信服、语法正确的网络钓鱼电子邮件。
人工智能在网络安全中的武器化并不新鲜,但 ChatGPT 最让我兴奋的是它缩小信息安全最大差距的潜力:在网络安全技能(即专业化)的广度和深度方面缺乏足够的人才。为了进一步说明这一点,以下是 ChatGPT 将在 2023 年更改信息安全的三种方式。
推进众包威胁情报
在相当长的一段时间里,该行业的圣杯之一是成功地众包威胁情报。这一承诺源于能够看到单个垂直行业中众多公司正在发生的事情。不幸的是,最大的障碍是组织之间缺乏共享情报的信任。
这是各行各业的ISAC阵列一直试图解决的问题,结果好坏参半。展望未来,信息共享和分析中心(ISAC)可以使用其自然语言界面对ChatGPT模型进行迭代,并根据组内的隐式信任向其提供ISAC成员提交的日志数据。然后,ISAC 可以使用ChatGPT 来关联网络连接、恶意 IP 地址和域的类别以及类似行为。结果可能会产生一套IDS规则,ISAC成员应该实施这些规则来保护自己免受威胁。ISAC还将深入了解其所代表行业的整体风险状况。
利用现有资源完成更多工作
不确定的经济给安全组织带来了压力,要求他们实施招聘冻结,以从现有资源中榨取更多的生产力。ChatGPT 在这里可以作为力量倍增器非常有益,它使一个分析师能够完成多个人的工作。
通才和入门级员工可以描述他们在警报和检测中看到的内容,然后要求 ChatGPT 破译他们的观察结果以启动分类过程。一个具体的例子是帮助从业者每天对可疑的恶意代码进行去混淆,这通常需要一个小时或更长时间。现在可以在几秒钟内完成。
ChatGPT还具有改变事件响应的潜力。团队可以使用现有模型和自然语言处理来提供有关事件的所有可用数据,并描述潜在响应的基本原理。然后,ChatGPT可以立即证明或反驳有关妥协的理论。如今,这需要事件响应主管、工程师和几位分析师进行数天的工作,以完全解决事件。我可以预见未来,这个过程根本不需要分析师。
将恶意软件猫捉老鼠游戏提升到一个新的水平
如今,攻击者每年生成 1 亿个新的恶意软件样本。因为它们都需要手动编码,所以对于签名检测来说,它仍然是一个有限的、可管理的量。然而,使用ChatGPT,黑客可以说,“这就是我正在尝试做的事情,这是我正在尝试做的操作系统”,它可以生成一个恶意软件的数十万次迭代。
这意味着必须更快地重新计算检测引擎的 ML 模型。它要复杂得多,因为他们正在处理一个更大的数据集。幸运的是,ChatGPT 将增强逆向工程过程,并为反恶意软件工作提供战斗机会。
例如,一个重大的逆向工程挑战是使用通用文件名,它不能提供有关其发现位置的必要上下文。这需要更多的手动工作来识别为其构建的系统。二进制汇编中的一些微小变化标志着最终结果的变化 - 例如,它是为32位还是64位架构编写的?系统使用的是小端序还是大端序?答案决定了您阅读机器语言的方向(向前或向后)。
如果您没有上下文,所有这些工作都需要反复试验。ChatGPT 可以以极快的速度运行这些迭代,并为逆向工程师提供最终汇编语言并从那里进行处理。他们可以更进一步,让 ChatGPT 用自然语言告诉他们它认为应用程序在做什么。更重要的是,ChatGPT可以大规模地完成所有这些工作,分析数十万个二进制样本,并向分析师证明洞察力。
它还可以帮助反击常见的猫捉老鼠技术。例如,恶意软件通常包含反逆向工程技术,例如嵌套循环,使逆向工程师更难跟踪正在发生的事情和最终状态。ChatGPT可以比人类更快地解决这个问题。它还可以分析恶意软件的遗传密码,并查看可能存在代码重用的地方,以更快地识别作者的指纹。
长期影响
每当人工智能的新进展出现时,人们都不可避免地担心它是否会取代人类及其工作。我不相信ChatGPT 会让这一切发生,但它会让我们成为更强大的信息消费者。力量倍增效应将在各个层面产生深远的影响。我可以看到首席信息安全官向它提供了一组有关其风险登记册的信息,以便它返回策略和程序、事件响应计划等 — 所有这些都是针对他们的环境量身定制的。
虽然 ChatGPT 只是一个研究预览,但我和我的行业同事一样,对它有望彻底改变安全从业者的工作方式感到兴奋。
原文地址:3 Ways ChatGPT Will Change Infosec in 2023 (darkreading.com)