【工具分享】Halive批量探测URL存活

admin 2024年2月15日23:56:12评论10 views字数 1281阅读4分16秒阅读模式

【工具分享】Halive批量探测URL存活

0x01 简介

  • Halive是一个用于从短时间内状态未知的主机列表开始获取存活主机列表的软件。它速度很快,确实 halive 通过其异步设计实现了它的速度。

  • 一旦我们有了从侦察阶段收集的域/子域列表(例如通过pdlist),我们希望快速检查哪些子域是活动的,哪些不是。

0x02使用

使用截图:

【工具分享】Halive批量探测URL存活

  1. _ _ _ _ _____ _______

  2. ||||/ | | |_ _ // ____|

  3. ||_||/ _ | | | | //| _|

  4. | _ |/ ___ | |___ | | V /||___

  5. |_||_/_/ ______|___| _/|_____|

  6. A super fast asynchronous http and https prober, to check who is(h)alive.

  7. Developedby gnc

  8. usage: halive [-h][-o [OUTPUTFILE]][-t CONCURRENCY][-s][-u] inputfiles [inputfiles ...]

  9. An http/s prober, to check which URLs are alive.

  10. positional arguments:

  11. inputfiles input file with one url per line

  12. options:

  13. -h,--help show this help message andexit

  14. -o [OUTPUTFILE],--output [OUTPUTFILE]

  15. save results to the specified file

  16. -t CONCURRENCY,--concurrency CONCURRENCY

    number of concurrent http requests

  17. -s,--only-success show only responses which are not4XX errors

  18. -u,--only-urls show only active URLs, without response status codes

  19. #用法:

  20. #获取活动主机列表以及响应状态代码

  21. halive big_list_of_urls.txt

  22. #默认线程是20,提高线程可以加快探测速度

  23. halive big_list_of_urls.txt -t 100

  24. #将存活的URLS输出到report.txt

  25. halive big_lists_of_urls.txt -t 100--only-urls --output report.txt

  26. #过滤掉4xx状态码并保存到report.txt

  27. halive big_lists_of_urls.txt -t 100--only-success --only-urls --output report.txt

0x03快速安装

  1. git clone https://github.com/gnebbia/halive

  2. cd halive

  3. pip install -r requirements.txt

  4. python setup.py install

声明:本文章仅作安全研究与学习参考,如用于其他用途,造成一切后果,均与作者和本公众号无关!如有侵权,联系删除。

原文始发于微信公众号(安全技术资讯):【工具分享】Halive批量探测URL存活

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年2月15日23:56:12
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   【工具分享】Halive批量探测URL存活http://cn-sec.com/archives/2218425.html

发表评论

匿名网友 填写信息