在接触src之前,我和很多师傅都有同一个疑问,就是那些大师傅是怎么挖漏洞的?
与日常靶场训练不同,SRC漏洞挖掘更偏向于对业务资产的熟悉程度,除了需要掌握渗透测试的技术要点以外,可以思考一下是否在信息收集这一块做足了功夫,这是很多萌新容易忽略的点。
尽可能全面的收集资产可以让后续的工作更有发挥空间,能发现安全漏洞的几率也就更大,所以资产探测在渗透测试整个流程中就有了至关重要的意义。
首先要上分那么一定是批量刷漏洞,不然不可能上得了分的,然后呢,既然要批量刷漏洞。
两种思路:
1.审计通用性漏洞
2.用大佬已公布的漏洞
思路1 难度较大,耗时也较长。
思路2 难度适中,就是需要写脚本或者使用别人已经写好的脚本。
这里建议找一些关注度比较高,并且用户量较大的漏洞,然后自己通过写POC的方式刷漏洞,一般会捞到不少漏洞,所以要有足够的耐心先去找到这些合适的n day漏洞。
找n day的地方:
1、关注安全动态
一定一定要时刻关注安全动态,毕竟我们是利用N day嘛,看各位手速,先到先得。
Exploit-db:https://www.exploit- db.com/[1] (这里会有不少exp)
(多关注一些公众号,紧跟时事)
绿盟漏扫系统插件更新日志:
http://update.nsfocus.com/update/listRsasDetail/v/vulsys[2](这是绿盟漏扫插件的更新日志,一般出新POC了,这边更新速度还是有的)
vulhub:https://github.com/vulhub/vulhub[3](漏洞复现很好用的docker环境,更新速度也比较快)
CNVD:https://www.cnvd.org.cn/[4]
CNNVD:http://www.cnnvd.org.cn/[5]
2、批量刷漏洞流程
01 刷指纹-> 02刷原始漏洞-> 03刷CMS-> 04刷指定站点
3、搜索引擎
百度、google、搜狗、360搜索、必应、zoomeye、FOFA、SHODAN
4、 漏洞平台 :
补天、漏洞盒子、CNVD、教育行业漏洞报告平台
批量刷src思路 :
在面对大量SRC的链接的时候,我们需要扫描大量地址来快速找到一个突破口,快速找到突破口的脑图:
首页Fuzz
首先扫描每个链接的 [网站备份文件][git泄露] [iis解析漏洞] [ms15-034] [phpmyadmin]...
IP/IP段收集
然后对每个地址获取ip或者IP段来扫描开放端口服务,一些常见的服务,如"ftp","mysql","mssql","telnet","postgresql","redis","mongodb","memcached","elasticsearch" 可以扫描一下弱口令。
爬虫检测
然后过滤一下含有waf的网站,对剩下的网站用爬虫获取[asp|php|jsp|aspx]后缀的地址进行sql/xss注入检测。
基本上在进行上述扫描后,就会得到大量的信息来提供给我们,然后只需要找到任意一个进行突破就行了。
推荐搜索引擎:
zoomeye、FOFA、shodan
这里我们需要调用zoomeye或fofa或shodan的API接口,对我们收集到的poc和exp在公网搜索相应的漏洞,这里给出一些简单的命令:
以fofa联动xray批量刷src为例。
利用fofa API[6]收集目标:
# -*- coding: utf-8 -*-
import time
import urllib2
import fofa
import json
def write_url(urls):
with open('xxx.txt','a+') as f:
f.write(urls+'\n')
if __name__ == "__main__":
email, key = ('[email protected]','key') #输入email和key
client = fofa.Client(email, key) #将email和key传入fofa.Client类进行初始化和验证,并得到一个fofa client对象
if client.get_userinfo():
print "认证成功!!!"
query_str = '"edu.cn" && country="CN"'
for page in range(2,10): # 爬取页数
try:
time.sleep(2)
print "正在爬取第{}页".format(page)
dict_url = json.loads(client.get_json_data(query_str, page=page))['results']
for i in dict_url:
if "https://" not in i: # 这里过滤掉了https开头的
write_url(i)
print i
except urllib2.HTTPError:
print "HTTP Error 502: Bad Gateway"
使用xray批量验证:
以管理员身份运行
# 单个url检测
./xray_windows_amd64 webscan --url https://xxx.edu.cn --html-output edu.html
# 批量检测
./xray_windows_amd64 webscan --url-file edu.txt --html-output edu.html
以html方式输出
https://blog.csdn.net/qq_35029061/article/details/125655749
★
欢 迎 加 入 星 球 !
代码审计+免杀+渗透学习资源+各种资料文档+各种工具+付费会员
进成员内部群
星球的最近主题和星球内部工具一些展示
关 注 有 礼
还在等什么?赶紧点击下方名片关注学习吧!
推荐阅读