基于Python實現(xiàn)子域名收集工具
在網(wǎng)絡(luò)安全領(lǐng)域中,發(fā)現(xiàn)和管理攻擊面絕對是一項必須的任務(wù),而對域名的尋找和分析是發(fā)現(xiàn)攻擊面的重要步驟。今天我們將與您分享關(guān)于域名發(fā)現(xiàn)的四種方法,并附帶Python示例代碼來幫助您更好的理解和掌握這些方法。
1. 主域名鏈?zhǔn)阶C書提取域名信息(Chain of Trust from Root Domain)
import ssl
import OpenSSL
def get_cert_chain(domain):
cert = ssl.get_server_certificate((domain, 443))
x509 = OpenSSL.crypto.load_certificate(OpenSSL.crypto.FILETYPE_PEM, cert)
return [value for value in x509.get_subject().get_components()]
print(get_cert_chain('example.com'))
2. 證書透明度日志(Certificate Transparency Logs)
import requests
def query_crt_sh(domain):
url = f"https://crt.sh/?q={domain}&output=json"
response = requests.get(url)
try:
return [result['name_value'] for result in response.json()]
except:
return []
print(query_crt_sh('example.com'))
3. 站長工具(Webmaster Tools)
import requests
from bs4 import BeautifulSoup
def query_webmaster_tools(domain):
base_url = f"https://whois.chinaz.com/{domain}"
page = requests.get(base_url)
bs_obj = BeautifulSoup(page.text, "html.parser")
return [pre.text for pre in bs_obj.find_all('pre')]
print(query_webmaster_tools('example.com'))
4. 子域名爆破(Subdomain Enumeration)
對實際環(huán)境中常見的子域名前綴進行枚舉。
import socket
def enum_subdomains(domain):
common_subdomains = ['www', 'ftp', 'mail', 'webmail', 'admin']
for subdomain in common_subdomains:
full_domain = f"{subdomain}.{domain}"
try:
# if the subdomain resolves, it exists
socket.gethostbyname(full_domain)
print(f"Discovered subdomain: {full_domain}")
except socket.gaierror:
pass
enum_subdomains('example.com')
根據(jù)目標(biāo)和環(huán)境選擇適合的工具進行深入挖掘總能幫助我們更好的發(fā)現(xiàn)攻擊面。希望以上的信息會對你有所幫助。
寫在最后
云圖極速版支持包含上述幾種在內(nèi)的 20 余種域名發(fā)現(xiàn)方式,通過智能編排的方式動態(tài)調(diào)用以實現(xiàn)域名發(fā)現(xiàn)覆蓋度的最大化。除此之外,云圖極速版還支持 IP 發(fā)現(xiàn)、端口、服務(wù)、網(wǎng)站、組件、漏洞、安全風(fēng)險等多種企業(yè)資產(chǎn)信息的全自動發(fā)現(xiàn)與監(jiān)控。實現(xiàn)攻擊面發(fā)現(xiàn)與攻擊面管理的自動化。
方法補充
除了上文的方法,小編為大家整理了其他Python實現(xiàn)子域名收集的方法,希望對大家有所幫助
實現(xiàn)代碼
# 導(dǎo)入模塊
import sys
from threading import Thread
from urllib.parse import urlparse
import requests
from bs4 import BeautifulSoup
# bing搜索子域名
def bing_search(site, page):
headers = {
'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/'
'85.0.4183.102 Safari/537.36',
'Accept-Encoding': 'gzip,deflate',
'Accept-Language': 'en-US,en;q=0,5',
'Referer': 'https://cn.bing.com/search?q=site%3Abaidu.com&qs=n&form=QBLH&sp=-1&pq=site%3Abaidu.com'
'&sc=0-14&sk=&cvid=852BA524E035477EBE906058D68F4D70',
'cookie': 'SRCHD=AF=WNSGPH; SRCHUID=V=2&GUID=D1F8852A6B034B4CB229A2323F653242&dmnchg=1; _EDGE_V=1; '
'MUID=304D7AA1FB94692B1EB575D7FABA68BD; MUIDB=304D7AA1FB94692B1EB575D7FABA68BD; '
'_SS=SID=1C2F6FA53C956FED2CBD60D33DBB6EEE&bIm=75:; ipv6=hit=1604307539716&t=4; '
'_EDGE_S=F=1&SID=1C2F6FA53C956FED2CBD60D33DBB6EEE&mkt=zh-cn; SRCHUSR=DOB=20200826&T=1604303946000;'
' SRCHHPGUSR=HV=1604303950&WTS=63739900737&CW=1250&CH=155&DPR=1.5&UTC=480&DM=0&BZA=0&BRW=N&BRH=S'
}
for i in range(1, int(page) + 1):
url = "https://cn.bing.com/search?q=site:" + site + "&go=Search&qs=ds&first=" + str((int(i) - 1) * 10 + 1)
html = requests.get(url, headers=headers)
soup = BeautifulSoup(html.content, 'html.parser')
job_bt = soup.findAll('h2')
for j in job_bt:
link = j.a.get('href')
domain = str(urlparse(link).scheme + "://" + urlparse(link).netloc)
if domain in Subdomain:
pass
else:
Subdomain.append(domain)
# 百度搜索
def baidu_search(site, page):
headers = {
'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/'
'85.0.4183.102 Safari/537.36',
'Referer': 'https://www.baidu.com/s?wd=nsfocus'
}
for i in range(1, int(page) + 1):
# 拼接搜索鏈接
baidu_url = "https://www.baidu.com/s?wd=site:" + site + "&pn=" + str(
(int(i) - 1) * 10) + "&oq=site:" + site + "&ie=utf-8"
conn = requests.session()
resp = conn.get(baidu_url, headers=headers)
soup = BeautifulSoup(resp.text, 'lxml')
tagh3 = soup.findAll('h3')
for h3 in tagh3:
href = h3.find('a').get('href')
resp_site = requests.get(href,headers=headers)
# 獲取url鏈接地址
domain = str(urlparse(resp_site.url).scheme + "://" + urlparse(resp_site.url).netloc)
# 將子域名追加到列表中
if domain in Subdomain:
pass
else:
Subdomain.append(domain)
# 從保存的文件中讀取內(nèi)容
def read_file():
with open(r'c:\users\xxxx\desktop\xxx.txt', mode='r') as f:
for line in f.readlines():
print(line.strip())
# 將結(jié)果寫入文件
def write_file():
with open(r'c:\users\xxx\desktop\xxx.txt', mode='w') as f:
for domain in Subdomain:
f.write(domain)
f.write('\n')
if __name__ == '__main__':
# 需要用戶傳入需要查詢的站點域名及希望查詢的頁數(shù)
if len(sys.argv) == 3:
domain = sys.argv[1]
num = sys.argv[2]
else:
print("Usage: %s baidu.com 10" % sys.argv[0])
sys.exit(-1)
Subdomain = []
# 多行程執(zhí)行子域名查找
bingt = Thread(target=bing_search, args=(domain, num,))
bait = Thread(target=baidu_search, args=(domain, num,))
bingt.start()
bait.start()
bingt.join()
bait.join()
# 寫入文件
write_file()到此這篇關(guān)于基于Python實現(xiàn)子域名收集工具的文章就介紹到這了,更多相關(guān)Python子域名收集內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Pytorch 定義MyDatasets實現(xiàn)多通道分別輸入不同數(shù)據(jù)方式
今天小編就為大家分享一篇Pytorch 定義MyDatasets實現(xiàn)多通道分別輸入不同數(shù)據(jù)方式,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-01-01
Python面向?qū)ο缶幊讨庋b的藝術(shù)你了解嗎
這篇文章主要為大家詳細介紹了Python面向?qū)ο缶幊讨庋b的藝術(shù),文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下,希望能夠給你帶來幫助2022-02-02
使用Flask創(chuàng)建簡單的圖片上傳站點的流程步驟
在網(wǎng)絡(luò)應(yīng)用程序中,實現(xiàn)圖片上傳功能是一項常見的需求,Flask框架提供了簡單而靈活的工具,使得構(gòu)建這樣的功能變得相對簡單,本文將介紹如何使用Flask框架創(chuàng)建一個簡單的圖片上傳站點,以及其中涉及的關(guān)鍵技術(shù)和步驟,需要的朋友可以參考下2024-05-05
python scrapy重復(fù)執(zhí)行實現(xiàn)代碼詳解
這篇文章主要介紹了python scrapy重復(fù)執(zhí)行實現(xiàn)代碼詳解,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2019-12-12
Python學(xué)習(xí)筆記嵌套循環(huán)詳解
這篇文章主要介紹了Python學(xué)習(xí)筆記嵌套循環(huán)詳解,文章圍繞主題展開詳細的內(nèi)容介紹,具有一定的參考價值,需要的小伙伴可以參考一下2022-07-07
詳解Python 實現(xiàn)元胞自動機中的生命游戲(Game of life)
本篇文章主要介紹了詳解Python 實現(xiàn)元胞自動機中的生命游戲(Game of life),具有一定的參考價值,感興趣的小伙伴們可以參考一下2018-01-01

