根据Venafi的研究显示,云原生安全事件导致了应用延迟、服务中断和系统数据的未授权访问等影响。
根据 CyberArk 旗下的 Venafi 公司的新研究显示,云原生环境已成为频繁遭受安全攻击的目标,其中有高达 86% 的组织报告称在过去一年内遭遇过业务中断问题。这些事件导致了应用程序延迟、服务中断以及未经授权访问系统和数据的情况发生,进一步凸显了在云基础设施中存在的安全隐患。
这些发现出自Venafi发布的《2024年机器身份对云原生安全状况的影响》报告,该报告针对美国、英国、法国和德国的800名IT及安全决策者进行了调研。调查结果显示,在接受调查的企业中,53%的公司报告称应用程序启动延迟或生产时间缩短;而45%的公司遭遇过应用程序服务中断问题。此外,还有30%的受访者透露,攻击者在未经授权的情况下获取了对数据、网络或系统的访问权限。
凯文·博塞克,Venafi公司的首席创新官,表示:"一场大规模的网络攻击已经波及到云原生基础设施,影响了现代应用环境的大部分领域。更糟糕的是,网络犯罪分子正通过各种方式利用人工智能,非法侵入系统并大量使用服务账户来对机器身份进行攻击。"
一
机器身份被确定为网络攻击的主要目标
机器身份,尤其是访问令牌和服务账户,已经成为网络攻击者的主要关注点。Venafi的调查显示,88%的安全领导者认为机器身份是攻击者的下一个目标。超过一半(56%)的受访者报告称在过去一年中经历了与服务账户相关的安全事件。
随着云原生环境的日益复杂化,管理机器身份仍然是一个挑战。根据该报告,83%的受访者认为,未能妥善保护工作负载中的机器身份会导致其他所有安全措施失效。同时,74%的受访者将人为错误视为机器身份安全的最大弱点,而69%的受访者表示在云原生和数据中心环境中确保安全访问特别困难。
该报告显示,人工智能(AI)在网络安全领域的作用日益增强,特别是在供应链安全方面。报告指出,有高达77%的受访者担心“AI投毒”问题,这种攻击通过故意篡改AI系统的输入数据或输出结果,以达到恶意目的。
供应链攻击问题依然严峻,84%的受访者认为这一威胁不容忽视。然而,值得注意的是,有61%的受访者反映,他们的公司高级管理层在过去一年对供应链安全问题的重视程度有所下降。
报告提到的其他AI相关风险包括:有75%的受访者担心AI模型被盗用;73%的受访者担心由AI助力的社会工程威胁问题;同时,72%的受访者对AI供应链中的源头问题表示关注,这表明确保AI输入和来源的可信性是重大挑战。
报告中提到,安全团队与开发团队之间的紧张关系仍在持续。绝大多数受访者(68%)认为这两个团队间的分歧将长期存在,54% 的受访者表示难以鼓励开发人员优先考虑安全优先的思维方式。
在大规模管理密钥方面,同样存在着运营挑战。调查显示,高达89%的受访者在混合云和多云环境中面临着保护机密信息的难题。尽管如此,仍有91%的受访者认为,服务账户的使用简化了实施统一安全策略的过程。然而,有83%的受访者则表示,管理多个服务账户会增加整体复杂性。
这些数据进一步证实,与机器身份相关的安全事件日益增多。虽然 56% 的组织遭遇过使用服务账户获取访问令牌的安全事件,但也有近一半的机构曾遭遇过其他类型的机器身份安全事故,如数字证书等。
在 Venafi 进行的另一项研究中,83% 的组织报告使用 AI 生成代码,这反映了 AI 在开发工作流程中的作用越来越大。然而,这项对网络安全高管进行调查的研究显示,他们对与依赖 AI 相关的安全风险存在重大担忧,有92%的受访者对于DevOps团队广泛应用AI表示担忧。
🎉 大家期盼很久的#数字安全交流群来了!快来加入我们的粉丝群吧!
🎁 多种报告,产业趋势、技术趋势
这里汇聚了行业内的精英,共同探讨最新产业趋势、技术趋势等热门话题。我们还有准备了专属福利,只为回馈最忠实的您!
👉 扫码立即加入,精彩不容错过!
😄嘻嘻,我们群里见!
更多推荐