用python编写自动信息收集脚本(四) -爱站信息收集

admin 2020年10月5日09:46:06评论242 views字数 1156阅读3分51秒阅读模式

用python编写自动信息收集脚本(四) -爱站信息收集

本人只是python初学者,本文只适合初学者观看学习。大佬请绕过(或者指出需要改进的地方)!在日常渗透测试过程中我们都知道,在对目标进行渗透之前都是先要信息收集一波。收集到越多的信息往往渗透过程中越顺利,所以信息收集格外重要。而信息收集往往费时间比较多,所以我们想写一个自动信息收集的脚本,但是代码量太大。本文就先从whois信息开始,代码不好的地方。希望大家提出意见!


本次模块配合之前的用python编写自动信息收集脚本一,二,三使用


import threading  #多线程import requestsimport timefrom lxml import etreeimport re   #正则表达式import csvimport telnetlib   #建立tcp链接 实现端口扫描class xxsj(object):    def __init__(self):        global dk   #创建全局变量,后面端口扫描用        self.wz = input("请输入您想查询的网站")   #接收网站地址        dk = self.wz        self.a = re.sub(r"www.","",self.wz)    #正则表达式,匹配www.  然后删除        self.header = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'}

def whois(self): url = 'https://whois.aizhan.com/' self.wz '/' print("----基本信息收集----") response = requests.get(url=url, headers=self.header) selector = etree.HTML(response.content) title = selector.xpath('//td[@class="thead"]/text()') #获取whois页面td[@class="thead"]下所有文本 yuming = selector.xpath('//td[2]//text()') #获取whois页面td[2]下所有文本 a = len(title) #计算获取到的列表的长度 for i in range(0, a - 1): title1 = title #title1有序获取列表中标题的值 yuming1 = yuming #yuming1有序的获取列表中的值 self.write([title1, yuming1]) #写入到csv文件中
s=xxsj()s.run()

用python编写自动信息收集脚本(四) -爱站信息收集


推荐文章++++

用python编写自动信息收集脚本(四) -爱站信息收集

*简单python爬虫编写

*See-SURF基于Python的扫描仪以查找潜在的SSRF参数

*PYTHON小工具集(渗透测试工具集)


用python编写自动信息收集脚本(四) -爱站信息收集

用python编写自动信息收集脚本(四) -爱站信息收集


  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2020年10月5日09:46:06
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   用python编写自动信息收集脚本(四) -爱站信息收集http://cn-sec.com/archives/149871.html

发表评论

匿名网友 填写信息