批量挖掘SRC | 思路与实践①
2023-1-12 20:6:56 Author: 渗透安全团队(查看原文) 阅读量:157 收藏

一、SRC挖掘思路

在接触src之前,我和很多师傅都有同一个疑问,就是那些大师傅是怎么挖漏洞的?

与日常靶场训练不同,SRC漏洞挖掘更偏向于对业务资产的熟悉程度,除了需要掌握渗透测试的技术要点以外,可以思考一下是否在信息收集这一块做足了功夫,这是很多萌新容易忽略的点。

尽可能全面的收集资产可以让后续的工作更有发挥空间,能发现安全漏洞的几率也就更大,所以资产探测在渗透测试整个流程中就有了至关重要的意义。

二、批量刷SRC实践

首先要上分那么一定是批量刷漏洞,不然不可能上得了分的,然后呢,既然要批量刷漏洞。

两种思路:

1.审计通用性漏洞

2.用大佬已公布的漏洞

思路1 难度较大,耗时也较长。

思路2 难度适中,就是需要写脚本或者使用别人已经写好的脚本。

这里建议找一些关注度比较高,并且用户量较大的漏洞,然后自己通过写POC的方式刷漏洞,一般会捞到不少漏洞,所以要有足够的耐心先去找到这些合适的n day漏洞。

找n day的地方:

1、关注安全动态

一定一定要时刻关注安全动态,毕竟我们是利用N day嘛,看各位手速,先到先得。

Exploit-db:https://www.exploit- db.com/[1] (这里会有不少exp)

(多关注一些公众号,紧跟时事)

绿盟漏扫系统插件更新日志:

http://update.nsfocus.com/update/listRsasDetail/v/vulsys[2](这是绿盟漏扫插件的更新日志,一般出新POC了,这边更新速度还是有的)

vulhub:https://github.com/vulhub/vulhub[3](漏洞复现很好用的docker环境,更新速度也比较快)

CNVD:https://www.cnvd.org.cn/[4]

CNNVD:http://www.cnnvd.org.cn/[5]

2、批量刷漏洞流程

01 刷指纹-> 02刷原始漏洞-> 03刷CMS-> 04刷指定站点

3、搜索引擎

百度、google、搜狗、360搜索、必应、zoomeye、FOFA、SHODAN

4、 漏洞平台

补天、漏洞盒子、CNVD、教育行业漏洞报告平台

批量刷src思路

在面对大量SRC的链接的时候,我们需要扫描大量地址来快速找到一个突破口,快速找到突破口的脑图:

首页Fuzz

首先扫描每个链接的 [网站备份文件][git泄露] [iis解析漏洞] [ms15-034] [phpmyadmin]...

IP/IP段收集

然后对每个地址获取ip或者IP段来扫描开放端口服务,一些常见的服务,如"ftp","mysql","mssql","telnet","postgresql","redis","mongodb","memcached","elasticsearch" 可以扫描一下弱口令。

爬虫检测

然后过滤一下含有waf的网站,对剩下的网站用爬虫获取[asp|php|jsp|aspx]后缀的地址进行sql/xss注入检测。

基本上在进行上述扫描后,就会得到大量的信息来提供给我们,然后只需要找到任意一个进行突破就行了。

推荐搜索引擎:

zoomeye、FOFA、shodan

这里我们需要调用zoomeye或fofa或shodan的API接口,对我们收集到的poc和exp在公网搜索相应的漏洞,这里给出一些简单的命令:

以fofa联动xray批量刷src为例。

利用fofa API[6]收集目标:

# -*- coding: utf-8 -*-
import time
import urllib2
import fofa
import json
def write_url(urls):
with open('xxx.txt','a+') as f:
f.write(urls+'\n')
if __name__ == "__main__":
email, key = ('[email protected]','key') #输入email和key
client = fofa.Client(email, key) #将email和key传入fofa.Client类进行初始化和验证,并得到一个fofa client对象
if client.get_userinfo():
print "认证成功!!!"
query_str = '"edu.cn" && country="CN"'
for page in range(2,10): # 爬取页数
try:
time.sleep(2)
print "正在爬取第{}页".format(page)
dict_url = json.loads(client.get_json_data(query_str, page=page))['results']
for i in dict_url:
if "https://" not in i: # 这里过滤掉了https开头的
write_url(i)
print i
except urllib2.HTTPError:
print "HTTP Error 502: Bad Gateway"

使用xray批量验证:

以管理员身份运行

# 单个url检测
./xray_windows_amd64 webscan --url https://xxx.edu.cn --html-output edu.html
# 批量检测
./xray_windows_amd64 webscan --url-file edu.txt --html-output edu.html

以html方式输出

https://blog.csdn.net/qq_35029061/article/details/125655749


付费圈子

欢 迎 加 入 星 球 !

代码审计+免杀+渗透学习资源+各种资料文档+各种工具+付费会员

进成员内部群

星球的最近主题和星球内部工具一些展示

关 注 有 礼

关注下方公众号回复“666”可以领取一套精品渗透测试工具集和百度云视频链接。

 还在等什么?赶紧点击下方名片关注学习吧!


群聊 | 技术交流群-群除我佬

干货|史上最全一句话木马

干货 | CS绕过vultr特征检测修改算法

实战 | 用中国人写的红队服务器搞一次内网穿透练习

实战 | 渗透某培训平台经历

实战 | 一次曲折的钓鱼溯源反制

免责声明
由于传播、利用本公众号渗透安全团队所提供的信息而造成的任何直接或者间接的后果及损失,均由使用者本人负责,公众号渗透安全团队及作者不为承担任何责任,一旦造成后果请自行承担!如有侵权烦请告知,我们会立即删除并致歉。谢谢!
好文分享收藏赞一下最美点在看哦

文章来源: http://mp.weixin.qq.com/s?__biz=MzkxNDAyNTY2NA==&mid=2247495980&idx=2&sn=16252284081aa32485060d268421ba3e&chksm=c1760c83f6018595f2adc19e41c36329e1addd6c02b023b96caac5be2f62de4afcbd3f7fde69#rd
如有侵权请联系:admin#unsafe.sh