关键词
网络安全
生成性人工智能的发展既为生产力带来有益变革,也带来了恶意利用的机会。
GhostGPT 是一款专为网络犯罪而创建的未经审查的 AI 聊天机器人,是该领域的最新威胁。
Abnormal Security 的研究人员发现,GhostGPT 是利用人工智能进行非法活动的新前沿,例如网络钓鱼计划、恶意软件开发和漏洞利用开发。
快速处理:使攻击者能够快速生成恶意内容。
无日志政策:声称避免记录用户活动,吸引那些寻求匿名的人。
轻松访问:通过 Telegram 分发,用户无需技术专业知识或额外的软件设置即可访问。
GhostGPT 被宣传为各种网络犯罪活动的工具,其中包括:
制作恶意软件和漏洞。
为商业电子邮件泄露 (BEC) 诈骗编写网络钓鱼电子邮件。
自动化社会工程攻击。
为了测试其功能,研究人员促使 GhostGPT 创建一封模仿 DocuSign 的网络钓鱼电子邮件。
聊天机器人生成了一个令人信服的模板,可以轻松欺骗毫无戒心的收件人。这凸显了它降低网络犯罪分子进入门槛的潜力,甚至使技术水平较低的攻击者也能执行复杂的活动。
GhostGPT 等工具的出现引发了人们对网络安全和人工智能滥用的严重担忧:
GhostGPT 简化了对高级黑客工具的访问。它在 Telegram 等平台上可用,即使是技术知识最少的个人也可以使用它。
凭借快速响应时间和未经审查的输出,攻击者可以比以往更有效地创建恶意软件或网络钓鱼活动。这加快了从规划到执行的时间表。
生成式人工智能使攻击者能够通过自动执行诸如制作多封网络钓鱼电子邮件或生成多态恶意软件(每次迭代都会发生变异以逃避检测的恶意软件)等任务来扩展其操作。
防火墙和电子邮件过滤器等传统安全措施很难检测到人工智能生成的内容,因为其特性与人类相似。因此,人工智能驱动的网络安全解决方案对于应对这些威胁至关重要。
GhostGPT 并非孤例。它遵循WormGPT和FraudGPT等其他未经审查的 AI 工具,这些工具也被用于类似目的。
这些工具是一种日益增长的趋势的一部分,即生成式人工智能被用于通过个性化消息进行网络钓鱼活动、开发勒索软件和其他恶意软件以及通过自动漏洞生成来利用漏洞。
为了打击人工智能的滥用:
人工智能安全解决方案:即使传统方法失败,先进的机器学习模型也可以检测出表明恶意活动的模式。
人工智能开发的道德准则:开发人员必须实施强有力的保障措施,以防止越狱或滥用。
立法行动:政府应规范生成性人工智能工具的分发和使用,同时追究开发者对滥用行为的责任。
网络安全意识:组织必须教育员工如何识别网络钓鱼企图和其他网络威胁。
GhostGPT 是一个典型的例子,它表明当道德界限被打破时,人工智能的进步可能会被利用于恶意目的。
随着网络犯罪分子越来越多地采用此类工具,网络安全社区必须创新同样复杂的防御措施。人工智能的恶意使用和防御性使用之间的斗争可能会决定网络安全的未来格局。
来源:https://cybersecuritynews.com/ghostgpt-jailbreak-version-of-chatgpt/
END
阅读推荐
【安全圈】威胁者利用语音通话通过 Microsoft Teams 传播勒索软件
【安全圈】1,000 多个恶意域名模仿 Reddit 和 WeTransfer 来传播恶意软件
安全圈
←扫码关注我们
网罗圈内热点 专注网络安全
实时资讯一手掌握!
好看你就分享 有用就点个赞
支持「安全圈」就点个三连吧!