在数字化浪潮中,大语言模型正深刻改变网络安全格局。恶意邮件、复杂日志……传统手段难以应对的挑战,如今可通过模型轻松化解。但你是否清楚,如何将大模型融入网络安全?如何抵御针对模型的新型攻击?
本课程为你解锁从理论到实战的全链路知识,带你掌握大模型核心原理,精通网络安全场景下的应用开发,构建本地化模型,并筑牢安全防线。熟练掌握大语言模型在网络安全领域的应用开发技能,具备应对大语言模型安全风险的能力。
上新价:¥2999
助力学员成为
网络安全与大语言模型融合应用的专业人才
课程介绍
本课程全面涵盖大语言模型从基础知识到网络安全工程应用及安全防护的各个环节。从大语言模型的基础理论,如生成式人工智能、深度学习原理,到模型训练、调用、微调等实战技术,再聚焦网络安全领域,讲解如何利用大语言模型进行恶意邮件识别、日志审计等安全应用开发,以及应对模型自身面临的各类安全威胁,为学员打造一站式学习体系,助力学员成为网络安全与大语言模型融合应用的专业人才。
*课程难度中等偏上,学员需熟悉至少一种编程语言(如 Python),了解基本的网络安全概念,如漏洞、攻击手段等,对深度学习有初步认知更佳。
课程前期基础知识部分相对基础,随着深入到网络安全应用开发与模型安全攻防,涉及较多复杂技术与实战操作。
主讲团队
讲师团队由资深网络安全专家与大语言模型领域研究者组成,具备多年实战经验,不仅深入掌握大语言模型的理论知识,更在企业级网络安全项目中有诸多成功案例,能够将复杂的理论知识深入浅出地讲解,还能指导学员进行实际操作,帮助学员快速上手,解决实际问题。
课程亮点
理论实战结合:每个重要知识点都配备理论讲解与实战演练,确保学员学了就能用。
前沿案例剖析:引入最新企业网络安全项目案例,让学员接触行业前沿动态。
安全攻防一体:既教授大语言模型助力安全防护,又涵盖模型自身安全攻防,拓宽学员视野。
课程目录(可上下滑动查看)
1、大语言模型基础知识概述
1.1 生成式人工智能概述【理论】
1.2 提示词工程概述【理论】
1.3 智能体 Agent【理论】
1.4 NLP 基础之神经网络【理论+实战】
1.5 NLP 基础之分词模型【理论+实战】
1.6 NLP 基础之 Transformer 模型架构【理论】
1.7 大语言模型训练过程【理论】
1.8 大语言模型网络安全前沿应用概述【理论】
1.9 大语言模型内生安全与外围安全【理论】
2、大语言模型网络安全应用工程化开发基础
2.1 模型调用与接口稳定性保证【理论+实战】
2.2 模型调用监控【实战】
2.3 提示词工程编程【理论+实战】
2.4 输出格式验证幻觉缓解与可靠性保障【理论+实战】
2.5 模型接口路由与负载均衡【理论+实战】
2.6 大语言模型 function call 外部工具调用 【理论+实战】
2.7 LangGraph Agent 网络安全开发【理论+实战】
2.8 大语言模型量化技术【理论+实战】
2.9 Embedding 嵌入技术【理论+实战】
2.10 向量搜索与 RAG 技术【理论+实战】
2.11 GraphRAG 知识图谱与方法复现【理论+实战】
3、Transformer 网络安全应用工程化开发
3.1 Transformer pipeline【理论+实战】
3.2 Transformer 模型微调【理论+实战】
3.3 Transformer 与自编码器构建EDR异常检测系统【理论+实战】
4、企业本地网络安全知识库建设
4.1 网安知识库情报智能爬取【理论+实战】
4.2 企业本地大语言模型部署【实战】
4.3 企业本地安全知识库建设【实战】
5、大语言模型微调技术
5.1 微调数据集构建【理论+实战】
5.2 全参微调(Full Fine-Tuning)
5.3 Lora 微调
5.4 Adapter-Tuning 微调
5.5 Prefix-Tuning 微调
5.6 Prompt-Tuning 微调
5.7 偏好对齐
5.8 基于 llama-factory 微调实验
6、大语言模型网络安全工程智能体应用
6.1 大语言模型恶意邮件识别【理论+实战】
6.2 大语言模型日志审计【理论+实战】
6.3 大语言模型辅助漏洞挖掘【理论+实战】
6.4 大语言模型辅助 Fuzz 用例生成【理论+实战】
6.5 大语言模型 text2sql 自然语言数据库查询【理论+实战】
6.6 大语言模型威胁情报分析与信息提取【理论+实战】
7、大语言模型模型安全与评估方法
7.1 大语言模型提示词注入攻击与防御【理论 + 实战】
7.2 大语言模型越狱攻击与防御【理论 + 实战】
7.3 大语言模型提示词泄露攻击与防御【理论 + 实战】
7.4 多模态大模型图像对抗样本生成【理论+实战】
*点击图片查看大图
欢迎加入学习
一站式学习体系,全方位解锁大模型安全应用
球分享
球点赞
球在看
点击阅读原文查看更多