本人只是python初学者,本文只适合初学者观看学习。大佬请绕过(或者指出需要改进的地方)!在日常渗透测试过程中我们都知道,在对目标进行渗透之前都是先要信息收集一波。收集到越多的信息往往渗透过程中越顺利,所以信息收集格外重要。而信息收集往往费时间比较多,所以我们想写一个自动信息收集的脚本,但是代码量太大。本文就先从whois信息开始,代码不好的地方。希望大家提出意见!
本次模块配合之前的用python编写自动信息收集脚本一,二,三使用
import threading #多线程
import requests
import time
from lxml import etree
import re #正则表达式
import csv
import telnetlib #建立tcp链接 实现端口扫描
class xxsj(object):
def __init__(self):
global dk #创建全局变量,后面端口扫描用
self.wz = input("请输入您想查询的网站") #接收网站地址
dk = self.wz
self.a = re.sub(r"www.","",self.wz) #正则表达式,匹配www. 然后删除
self.header = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'}
def whois(self):
url = 'https://whois.aizhan.com/' self.wz '/'
print("----基本信息收集----")
response = requests.get(url=url, headers=self.header)
selector = etree.HTML(response.content)
title = selector.xpath('//td[@class="thead"]/text()') #获取whois页面td[@class="thead"]下所有文本
yuming = selector.xpath('//td[2]//text()') #获取whois页面td[2]下所有文本
a = len(title) #计算获取到的列表的长度
for i in range(0, a - 1):
title1 = title #title1有序获取列表中标题的值
yuming1 = yuming #yuming1有序的获取列表中的值
self.write([title1, yuming1]) #写入到csv文件中
s=xxsj()
s.run()
推荐文章++++
免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论