加入收藏 | 设为首页 | 会员中心 | 我要投稿 河北网 (https://www.hebeiwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

聊一聊渗出测试进程中的剧本成果

发布时间:2019-06-04 13:21:13 所属栏目:建站 来源:myh0st
导读:本日就来给各人聊一聊在渗出测试中我们也许必要写的剧本成果,我平常取代手工晋升服从行使的说话是 python,以是就以 python 为例贯串整个渗出进程的成果,也可以作为指导,针对性的去进修和实践。 渗出进程中凡是包括信息网络和裂痕操作两个首要部门,在

本日就来给各人聊一聊在渗出测试中我们也许必要写的剧本成果,我平常取代手工晋升服从行使的说话是 python,以是就以 python 为例贯串整个渗出进程的成果,也可以作为指导,针对性的去进修和实践。

渗出进程中凡是包括信息网络和裂痕操作两个首要部门,在信息收齐集,我们要网络方针的外围资产信息,也就是我们在外部可以直接会见的处事器和应用,这个中包罗:域名信息、IP 信息、企业内部员工信息、端口开放信息、web 应用信息等。

渗出测试

信息网络

域名信息包括一级域名的注册信息以及企业对外理会的全部二级域名列表等,注册信息可以通过 whois 的方法去查察,互联网上存在许多网站提供 whois 查询的成果。

获取企业全部二级以上域名的途径许多,好比:

  • 通过爬虫的方法去方针网站爬取
  • 通过搜刮引擎搜刮相干数据
  • 通过字典举办列举(dns 理会)

IP 信息是企业对外开放的全部 IP 列表,越多越好,获取 IP 的途径首要有两种,一种是通过网络到的域名理会出该企业的 IP 列表;第二种是通过 whois 查询这些 IP 信息,看这些 whois 信息中是否包括方针公司的信息,从而确认 IP 的归属,有的时辰,whois 中包括的是一个 IP 段,获取你可以通过 IP 获取公司的整个 IP 段。

用户邮箱的网络首要通过搜刮引擎探求那些安详意识不到位果真走漏的邮箱地点,还可以通过网上泄漏的公司相干文档中生涯的邮箱地点,更多的方法这里不说了,本身思索吧。

端口信息的获取首要通过扫描的方法,操作前面网络到的 IP 信息,操作端口扫描的方法获取全部开放的端口以及相干处事。

web 应用信息首要是利便我们探求 web 应用的裂痕,个中包括 web 指纹、处事器信息、目次布局等。

涉及自动化的场景

(1) 假如我们必要测试的域名很是多时辰,想要相识这些域名的基本信息,假如一个一个去 whois 查询,是不是会很累?我们可否举办自动化?虽然可以,实现的方法也很简朴,我们在收集上找一个可以查询域名 whois 信息的网站,查察其查询接口,行使 python 的 requests 库哀求接口查询即可,然后写一个 for 轮回,自动获取全部域名信息生涯,跑完本身查察功效即可。

(2) 在网络二级域名列表时,我们必要从搜刮引擎里提取相干记录,手工复制是不实际的,事实大厂的二级以上的域名都是上千上万的,以是我们必要从搜刮引擎拿到搜刮功效并将二级以上的域名提取出来,哀求内容上面已经说了,提取域名首要用到的是 python 的 re 库,进批改则的行使至关重要。

(3) 网络域名列表除了爬虫、搜刮引擎的方法外,还可以用字典列举,列举的进程首要用到的是 dns 的理会成果,python 中的 socket 库,个中有个函数 gethostbyname 可以实现你想要的成果,最后筹备一份字典就可以开跑了。

(4) 获取了一大批的 IP 地点,还想扩展更多的 IP,那么就必要对网络到的 IP 举办 whois 查询,Linux 下存在一个器材 whois 直接可以查询 IP 的 whois 信息,服从蛮高的,我们可以用 python 的 os 模块等可以执行体系呼吁的模块挪用 Linux 下的 whois 措施查询你想查的 IP 地点,最后处理赏罚查询的全部功效即可。

(5) IP 列表和 IP 段得到之后,我们要知道这些 IP 上开放了那些端口和处事,这时就必要对这些 IP 举办端口扫描,最简朴的方法就是行使 nmap 来扫描,python 的挪用方法跟上面的一样,我们还可以本身写端口扫描器材,个中最焦点的是判定 IP 的某个端口是否开放,TCP 的三次握手道理我们要懂,可以用 python 的 socket 库,还可以用 scapy 库结构协议举办检测。

(6) 在端口扫描的时辰,必要加速速率,低落检测的时刻,那么就必要用到 python 的 threading 库,行使多线程技能,晋升速率,在 guthub 上有许多封装好的 threadpool 库,直接操作就好。

(7) 对付 web 应用,第一步是要获取根基的信息,我们可以行使 python 的 httplib、urllib、urllib2 等基本库,获取 IP 的 web 端口下的根基信息,包罗 header 中的处事器信息、默认首页的问题和内容等。

(8) 目次布局信息获取的方法第一种是通过爬虫按照网站的链接探测目次布局和文件列表,还可以通过本身网络的字典,举办列举目次和文件,这里用到的库跟上面的相同,至于网络的全不全,就看你网络的字典够不足好。

裂痕操作

颠末信息网络模块之后,我们对企业的资产信息有了或许的相识,个中也许会包括存在裂痕的应用,在裂痕操作阶段,必要自动化的处所不多,事实裂痕操作是具有粉碎性的,或许提一下。

  • 收集层面的裂痕操作可以用 scapy 结构协议举办操作
  • web 层面首要是那些与 http 协议相干的库,如:urllib、httplib、requests 等

其他的各人可以增补接头。

总结

这里提到的对象照旧不全面,本文的首要目标是汇报各人,在搞渗出的时辰,只管实现自动化,总结纪律,晋升事变服从,在有限的生命里做更多的事,懒人是改变天下的首要驱动力,有些时辰不要太勤快,轻易导致你挥霍大量不须要的时刻。

(编辑:河北网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读