爬虫

  • 爬虫已关闭评论
  • 9 views
  • A+
所属分类:安全百科

爬虫,是网络爬虫的简称,又称为网页蜘蛛,是一种按照一定的规则,自动地抓取互联网上的各类信息的程序或者脚本。在网络安全领域,爬虫可以用作Web漏洞扫描的前期探测、也可以用于检测、识别暴露在互联网上的各类敏感信息

信息源于:freebuf-wiki

相关推荐: Naikon APT组织分析

Check Point发现Naikon APT组织正在对亚太地区(APAC)国家政府进行网络攻击活动,使用了名为Aria-body的新后门控制受害者的网络。本报告将详细分析Naikon APT组织在过去5年中使用的战术,技术,程序和基础设施。 目标分析 过去的…