用python编写自动信息收集脚本(四) -爱站信息收集

华盟原创文章投稿奖励计划

本人只是python初学者,本文只适合初学者观看学习。大佬请绕过(或者指出需要改进的地方)!在日常渗透测试过程中我们都知道,在对目标进行渗透之前都是先要信息收集一波。收集到越多的信息往往渗透过程中越顺利,所以信息收集格外重要。而信息收集往往费时间比较多,所以我们想写一个自动信息收集的脚本,但是代码量太大。本文就先从whois信息开始,代码不好的地方。希望大家提出意见!

本次模块配合之前的用python编写自动信息收集脚本一,二,三使用

import threading  #多线程
import requests
import time
from lxml import etree
import re   #正则表达式
import csv
import telnetlib   #建立tcp链接 实现端口扫描
class xxsj(object):
    def __init__(self):
        global dk   #创建全局变量,后面端口扫描用
        self.wz = input("请输入您想查询的网站")   #接收网站地址
        dk = self.wz
        self.a = re.sub(r"www.","",self.wz)    #正则表达式,匹配www.  然后删除
        self.header = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'}

    def whois(self):
        url = 'https://whois.aizhan.com/' self.wz '/'
        print("----基本信息收集----")
        response = requests.get(url=url, headers=self.header)
        selector = etree.HTML(response.content)
        title = selector.xpath('//td[@class="thead"]/text()')  #获取whois页面td[@class="thead"]下所有文本
        yuming = selector.xpath('//td[2]//text()') #获取whois页面td[2]下所有文本
        a = len(title)  #计算获取到的列表的长度
        for i in range(0, a - 1):
            title1 = title  #title1有序获取列表中标题的值
            yuming1 = yuming  #yuming1有序的获取列表中的值
            self.write([title1, yuming1])  #写入到csv文件中

s=xxsj()
s.run()

本文原创,作者:congtou,其版权均为华盟网所有。如需转载,请注明出处:https://www.77169.net/html/260541.html

发表评论