师傅们好,今天想和大家聊聊两个非常实用的工具,特别适合那些需要频繁检测网站状态和安全性的师傅们。
-
手动检测网站存活状态耗时耗力,难以判断网站的实际存活概率,结果整理和分类繁琐。
-
手动配置和管理扫描任务复杂,单一工具扫描能力有限,动态内容和定制需求难以处理,无法有效追踪和管理漏洞修复进度。
如果你有上面这些头痛的点,这篇文章或许对你有帮助。
话不多说,咱们直接进入正题。
工具一:SiteLiveScan,精准快速的存活网站检测器
这是一款专注于探测网站存活概率的工具。它可以批量扫描目标网站(包括域名或 IP:端口),筛选出活跃站点。
这里有2点特别值得一提:
1. 异步协程批量扫描:处理大量网站不再是难题,高效又快速。
2. 存活概率评估:通过分析站点返回的状态码(status_code)及访问随机路径的状态码来判断网站的存活概率,非常智能。
扫描结果会默认保存在results目录下,并且帮你分类整理好。比如:
-
正常网站:大多数是20x和30x的响应码,偶尔有40x。
-
大概率正常网站:以404为主,少量其他响应码。
-
小概率正常网站:主要是403响应码。
-
异常网站:多是50x响应码,说明服务器有问题。
-
不常见响应码:比如401、200这些少见的响应码。
具体的工具详情可以扫文末二维码。
效果图如下:
工具二:AWVS-SCAN-Plus,全面高效的漏洞扫描好帮手
接下来的这个,是为 AWVS 15 版本开发的批量扫描脚本,功能非常强大,可以扫描多种漏洞类型,包括 SpringShell、log4j、常见 CVE、Bug Bounty 漏洞、高危漏洞、SQL 注入和 XSS 等。它还支持与 xray、burp、w13scan 等被动扫描器联动,并且可以灵活自定义扫描模板。
这里有几项功能特别实用:
1. URL 批量添加扫描:轻松管理多个目标。
2. 专项漏洞扫描:可单独扫描 apache-log4j 漏洞。
3. 动态爬虫扫描:支持对批量 URL 添加 Cookie 凭证进行扫描。
4. 请求头自定义:支持为批量 URL 添加一个或多个不同的请求头。
5. 代理地址配置:支持配置上级代理,结合被动扫描器进行配置扫描,如:xray,w13scan,burp等扫描器
6. 任务管理:一键清空所有任务。
7. 灵活自定义:通过 config.ini 文件自定义各种扫描参数,如爬虫速度、排除路径(不扫描的目录)、全局 Cookie 等,限制为仅包含地址和子目录。
8. 批量扫描:支持对扫描器内已有目标进行批量扫描,并可自定义扫描类型。
AWVS-SCAN-Plus有两种使用方式:交互式命令行和命令行参数,这两种分别用于手动交互式进行AWVS扫描的场景,与自动化处理的通过命令直接调用而无需交互式操作的场景。
具体的工具详情可以扫文末二维码。
使用实例分享
1. 网站在线状态检测
目标:筛选出在线的网站,确保接下来的安全漏洞扫描只针对实际可用的网站进行。
命令示例:
python3 SiteLiveScan.py -f urls.txt
运行这个命令,urls.txt 是包含待检测网站列表的文件。执行后,SiteLiveScan 会输出一个包含在线网站的列表,如 online_urls.txt。
2. 在线网站的漏洞扫描
目标:对筛选出的在线网站进行全面的安全漏洞扫描,识别潜在的安全风险。
命令示例:
python3 awvs_cli.py -f ./online_urls.txt -m 1 -r 1
-
-f ./online_urls.txt 指定了在线网站的文件。 -
-m 1 选择扫描模式,例如全面扫描。 -
-r 1 表示生成扫描报告。
总结
SiteLiveScan和AWVS-SCAN-Plus这两款非常实用的工具,分别在网站存活检测和安全漏洞扫描方面都表现出色。结合使用这两款工具,师傅们可以轻松确保网站的在线状态,并及时发现和修复潜在的安全隐患。
赶紧下载试试吧,让你不再无效扫描资源浪费,不再遗漏重要的安全隐患!
使用者好评:
工具一 SiteLiveScan更多详情及购买渠道
请扫码:
工具二 AWVS-SCAN-Plus更多详情及购买渠道
请扫码:
原文始发于微信公众号(FreeBuf):告别无效扫描站点漏洞,这两个工具嘎嘎好用
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论