欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

使用python爬蟲實(shí)現(xiàn)子域名探測(cè)問題

 更新時(shí)間:2022年07月07日 09:00:53   作者:微雨停了  
子域名枚舉是為一個(gè)或多個(gè)域查找子域的過程,它是信息收集階段的重要組成部分,這篇文章主要介紹了使用python實(shí)現(xiàn)子域名探測(cè),需要的朋友可以參考下

前言

意義:子域名枚舉是為一個(gè)或多個(gè)域查找子域的過程,它是信息收集階段的重要組成部分。
實(shí)現(xiàn)方法:使用爬蟲與字典爆破。

一、爬蟲

1.ip138

def search_2(domain):
    res_list = []
    headers = {
        'Accept': '*/*',
        'Accept-Language': 'en-US,en;q=0.8',
        'Cache-Control': 'max-age=0',
        'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36',
        'Connection': 'keep-alive',
        'Referer': 'http://www.baidu.com/'
    }
    results = requests.get('https://site.ip138.com/' + domain + '/domain.htm', headers=headers)
    soup = BeautifulSoup(results.content, 'html.parser')
    job_bt = soup.findAll('p')

    try:
        for i in job_bt:
            link = i.a.get('href')
            linkk = link[1:-1]
            res_list.append(linkk)
            print(linkk)
    except:
        pass
    print(res_list[:-1])
if __name__ == '__main__':
    search_2("jd.com")

返回結(jié)果:

在這里插入圖片描述

2.bing

def search_1(site):
    Subdomain = []
    headers = {
        'Accept': '*/*',
        'Accept-Language': 'en-US,en;q=0.8',
        'Cache-Control': 'max-age=0',
        'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36',
        'Connection': 'keep-alive',
        'Referer': 'http://www.baidu.com/'
    }
    for i in range(1, 16):
        url = "https://cn.bing.com/search?q=site%3A" + site + "&go=Search&qs=ds&first=" + str(
            (int(i) - 1) * 10) + "&FORM=PERE"
        # conn = requests.session()
        # conn.get('http://cn.bing.com', headers=headers)
        # html = conn.get(url, stream=True, headers=headers)
        html = requests.get(url, stream=True, headers=headers)
        soup = BeautifulSoup(html.content, 'html.parser')
        # print(soup)
        job_bt = soup.findAll('h2')
        for i in job_bt:
            link = i.a.get('href')
            print(link)
            if link in Subdomain:
                pass
            else:
                Subdomain.append(link)
    print(Subdomain)
if __name__ == '__main__':
    search_1("jd.com")

返回結(jié)果:

在這里插入圖片描述

二、通過字典進(jìn)行子域名爆破

def dict(url):
    for dict in open('dic.txt'):  # 這里用到子域名字典文件dic.txt
        dict = dict.replace('\n', "")
        zym_url = dict + "." + url
        try:
            ip = socket.gethostbyname(zym_url)
            print(zym_url + "-->" + ip)
            time.sleep(0.1)
        except Exception as e:
            # print(zym_url + "-->" + ip + "--error")
            time.sleep(0.1)
if __name__ == '__main__':
    dict("jd.com")

返回結(jié)果:

在這里插入圖片描述

三、python爬蟲操作步驟

1.寫出請(qǐng)求頭headers與目標(biāo)網(wǎng)站url

headers = {
        'User-Agent': "Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/42.0.2311.135 Safari/537.36 Edge/12.10240"
    }
url = "https://site.ip138.com/"

2.生成請(qǐng)求

get:res = requests.get(url + domain, headers=headers)
post:res = requests.post(url + domain, headers=headers, data=data)

3.抓取數(shù)據(jù)

soup = BeautifulSoup(res.content, 'html.parser')  # 以html解析器解析res的內(nèi)容

此時(shí)print(soup),返回結(jié)果:

在這里插入圖片描述

4.分析源碼,截取標(biāo)簽中內(nèi)容

1.通過分析源碼,確定需要提取p標(biāo)簽中的內(nèi)容:

job_bt = soup.findAll('p')

此時(shí)print(job_bt),返回結(jié)果:

在這里插入圖片描述

2.繼續(xù)提取a標(biāo)簽內(nèi)屬性為href的值:

try:
    for i in job_bt:
        link = i.a.get('href')
        linkk = link[1:-1]
        res_list.append(linkk)
        print(linkk)
except:
    pass

得結(jié)果:

在這里插入圖片描述

3.再進(jìn)行截取:

res_list[:-1]

得結(jié)果:

在這里插入圖片描述

四、爬蟲一些總結(jié)

1.抓取數(shù)據(jù),生成soup

soup = BeautifulSoup(res.content, 'html.parser')  # 以html解析器解析res的內(nèi)容

2.從文檔中獲取所有文字內(nèi)容

print(soup.get_text())

3.從文檔中找到所有< a >標(biāo)簽的鏈接

for link in soup.find_all('a'):
    print(link.get('href'))

到此這篇關(guān)于使用python實(shí)現(xiàn)子域名探測(cè)的文章就介紹到這了,更多相關(guān)python子域名內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

最新評(píng)論