爬虫

爬虫,是网络爬虫的简称,又称为网页蜘蛛,是一种按照一定的规则,自动地抓取互联网上的各类信息的程序或者脚本。在网络安全领域,爬虫可以用作Web漏洞扫描的前期探测、也可以用于检测、识别暴露在互联网上的各类...
阅读全文