这是托更很久的一期,现在开始我们今天的主动信息收集的教学
主动信息收集的基本结构
1.由攻击者主动发起⾏为或请求
2.⽬标受到⾏为或请求影响并发出反馈
3.攻击者获得反馈并判断特征
绕过cdn的常见手段
主动信息收集的常见手段
4.存储这些反馈并处理数据
(具体方法这里不过多赘述,详细的联系作者,这里只作为一个简略的介绍)
以ksubdomian举例:
ksubdomain -d jd.com -o jd.com.txt
通过爬⾍爬取的⽅式收集信息
基本原理:
1.⼯具会模拟浏览器做请求
2.将收到的请求收集并筛选(筛选什么东⻄:链接、按钮、只能能跳转的)
3.筛选出来的数据做⼆次的请求并判断
4.将判断后的数据处理并输出
以zap的spider举例:
基本原理:通过浏览器请求⻚⾯的返回并筛选所有的标签并通过模拟浏览器的操作点击⽹⻚中的每个动态链接 并判断返回值
import requests
from bs4 import BeautifulSoup
def qingqiu():
re = requests.get("mubiao")
a = re.text
return a
def shaixuan(a):
soup = BeautifulSoup("lxml")
soup.find
通过直接交互的⽅式收集⽬标反馈
1.⼯具会带有直接与⽬标交互的功能
2.通过判断⽬标反馈的不同判断出不同的信息
用nmap举例:
--script 使⽤脚本
-oN输出普通⽂本
-oX输出成xml
这就要涉及到我们的网络知识了
三次握手
发送⼀个syn
服务器返回⼀个 syn+ack 不
开的话 返回⼀个rst
基本思路:和POC编写的思路⼀样分为2个部分:
1.请求的功能
2.判断的功能
实战中的主动信息收集都是怎么做的
分布式,⻓时间,不连续性的
这三种特点下的主动信息收集并且收集到的信息会和被动信息收集到的信息做匹配 和对应处理,最常⽤的⼿⼯⽅式是模拟或者伪装正常的业务请求获得信息。
作者声明:严禁违法犯罪,仅供学习参考
原文始发于微信公众号(林言的安全圈):攻防教程2==》主动信息收集
- 左青龙
- 微信扫一扫
- 右白虎
- 微信扫一扫
评论