用python编写自动信息收集脚本(四) -爱站信息收集

  • A+
所属分类:安全开发

用python编写自动信息收集脚本(四) -爱站信息收集

本人只是python初学者,本文只适合初学者观看学习。大佬请绕过(或者指出需要改进的地方)!在日常渗透测试过程中我们都知道,在对目标进行渗透之前都是先要信息收集一波。收集到越多的信息往往渗透过程中越顺利,所以信息收集格外重要。而信息收集往往费时间比较多,所以我们想写一个自动信息收集的脚本,但是代码量太大。本文就先从whois信息开始,代码不好的地方。希望大家提出意见!


本次模块配合之前的用python编写自动信息收集脚本一,二,三使用


import threading  #多线程import requestsimport timefrom lxml import etreeimport re   #正则表达式import csvimport telnetlib   #建立tcp链接 实现端口扫描class xxsj(object):    def __init__(self):        global dk   #创建全局变量,后面端口扫描用        self.wz = input("请输入您想查询的网站")   #接收网站地址        dk = self.wz        self.a = re.sub(r"www.","",self.wz)    #正则表达式,匹配www.  然后删除        self.header = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'}

def whois(self): url = 'https://whois.aizhan.com/' self.wz '/' print("----基本信息收集----") response = requests.get(url=url, headers=self.header) selector = etree.HTML(response.content) title = selector.xpath('//td[@class="thead"]/text()') #获取whois页面td[@class="thead"]下所有文本 yuming = selector.xpath('//td[2]//text()') #获取whois页面td[2]下所有文本 a = len(title) #计算获取到的列表的长度 for i in range(0, a - 1): title1 = title #title1有序获取列表中标题的值 yuming1 = yuming #yuming1有序的获取列表中的值 self.write([title1, yuming1]) #写入到csv文件中
s=xxsj()s.run()

用python编写自动信息收集脚本(四) -爱站信息收集


推荐文章++++

用python编写自动信息收集脚本(四) -爱站信息收集

*简单python爬虫编写

*See-SURF基于Python的扫描仪以查找潜在的SSRF参数

*PYTHON小工具集(渗透测试工具集)


用python编写自动信息收集脚本(四) -爱站信息收集

用python编写自动信息收集脚本(四) -爱站信息收集


发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: