黑色技术 爬行蜘蛛 's

admin 2017年4月29日08:07:06评论227 views字数 898阅读2分59秒阅读模式
摘要

来源:红狼能够快速的爬行出网站的所有文件..页面..或者指定的文件..扫描关键字.
象搜索引擎一样去爬行指定网站所有文件。寻找注射点,寻找后台,寻找资料的好帮手。
MD5:D18CF5A7A6F49D1C878165410562454A

来源:红狼

能够快速的爬行出网站的所有文件..页面..或者指定的文件..扫描关键字.
象搜索引擎一样去爬行指定网站所有文件。寻找注射点,寻找后台,寻找资料的好帮手。
MD5:D18CF5A7A6F49D1C878165410562454A

使用语法:
例:
Spider -x -i www.rootkit.com.cn
注:命令参数区分大小写

Usage: spider [Arguments]
Arguments:
-I 从网页内容或者数据库里检索出包含关键字的Url.
or
-O [hostname (optional)] 如果指定一个主机名,就显示拥有引索内容的页面.
or
-i [start url] (*) -i [start url] (*) (输入要爬行的网址Url,域名,或者IP)
-t [修改默认线程] (默认: 20)
-s (单一域名(主机)模式)
-m [限制爬行最深目录或者网页数量] [默认: 0 (无限制)]
-l (限制每个站点被扫描的最大数) [默认: 0 (无限制)]
-c (限制每秒爬行的最大数) [默认: 0 (无限制)]
-b (限制每个站点下载宽带消耗.以 bytes 为单位) [默认: 0 (无限制)]
-E (限制下载页面时最大的错误代码数量) [默认: 0 (无限制)]
-e (不扫描外部主机或网站)
-F (使用自由引索模式)
-x (保存所有页面结果 (会影响速度)
-z (压缩保存所有页面和结果 (会影响速度)
-X 设置蜘蛛程序所爬行的更大范围 (eg. -X pdf,swf,doc)
-u (仅仅爬行最新更新的网页)
-T (测试模式)
-r [0-1-2](保存页面之间的关系 (Default: 1))
0:不保存页面之间的关系
1: 仅仅保存和主机有关系的页面
2: 保存所有页面的联系(包括非外部连接)
-n 不扫描默认主页.如index.asp
-d [0-999000 ms (延迟模式)] (Default: 0)
-S [TCP PORT] (使用所有服务器支持的命令行来爬行)
-o [spider Own Index] (显示所有引索页面关系)

-p [path] (使用某个配置文件来扫描 (eg.: "/etc/spider/spider.conf"))

(*) Arguments needed

下载地址:spider.rar

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2017年4月29日08:07:06
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   黑色技术 爬行蜘蛛 'shttps://cn-sec.com/archives/47506.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息