使用Python獲取網(wǎng)段IP個(gè)數(shù)以及地址清單的方法
使用Python獲取網(wǎng)段的IP個(gè)數(shù)以及地址清單需要用到IPy的庫(kù),而相應(yīng)的方法主要就是IP。
寫小腳本如下:
from IPy import IP ip = IP('192.168.0.0/16') print(ip.len()) for x in ip: print(x)
運(yùn)行結(jié)果:
GreydeMac-mini:01_系統(tǒng)基礎(chǔ)信息模塊詳解 greyzhang$ python ip.py
65536 192.168.0.0 192.168.0.1 192.168.0.2 192.168.0.3 192.168.0.4 192.168.0.5 192.168.0.6 192.168.0.7 192.168.0.8 192.168.0.9 192.168.0.10 192.168.0.11 192.168.0.12 192.168.0.13 192.168.0.14 192.168.0.15 192.168.0.16 192.168.0.17 …………………… 192.168.255.241 192.168.255.242 192.168.255.243 192.168.255.244 192.168.255.245 192.168.255.246 192.168.255.247 192.168.255.248 192.168.255.249 192.168.255.250 192.168.255.251 192.168.255.252 192.168.255.253 192.168.255.254 192.168.255.255
從上面的結(jié)果中可以看出,這個(gè)王端中共有65535個(gè)IP,同時(shí)腳本輸出了所有的IP地址清單。至于這個(gè)IP地址的含義可以再做一下簡(jiǎn)單的解釋。代碼中的192.168.0.0/16其實(shí)是一個(gè)私有地址網(wǎng)段。早起的網(wǎng)絡(luò)設(shè)計(jì)中,總是嘗試給所有的計(jì)算機(jī)分配一個(gè)固定的地址,但是隨著局域網(wǎng)的發(fā)展這個(gè)多少有點(diǎn)不必要了。私有的局域內(nèi)部網(wǎng)絡(luò)很多時(shí)候并不需要保護(hù)共有IP。未連接到互聯(lián)網(wǎng)上的機(jī)器并不需要使用唯一的IP地址,因?yàn)樗⒉辉谝蛱鼐W(wǎng)上路由,也不需要與IP地址注冊(cè)表協(xié)調(diào)。在RFC 1981中保留了IPV4的三個(gè)費(fèi)重疊地址,具體的地址說(shuō)明如下:
而代碼中,用到的便是上面表格中的第三個(gè)。針對(duì)前面兩個(gè)的網(wǎng)段IP數(shù)目進(jìn)行獲取如下:
In [67]: ip1 = IP('172.16.0.0/12') In [68]: ip1.len() Out[68]: 1048576 In [69]: ip2 = IP('10.0.0.0/8') In [70]: ip2.len() Out[70]: 16777216
以上這篇使用Python獲取網(wǎng)段IP個(gè)數(shù)以及地址清單的方法就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
python 拷貝特定后綴名文件,并保留原始目錄結(jié)構(gòu)的實(shí)例
下面小編就為大家分享一篇python 拷貝特定后綴名文件,并保留原始目錄結(jié)構(gòu)的實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-04-04解決echarts中餅圖標(biāo)簽重疊的問(wèn)題
這篇文章主要介紹了解決echarts中餅圖標(biāo)簽重疊的問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-05-05Python在Scrapy中設(shè)置采集深度的實(shí)現(xiàn)
Scrapy是一個(gè)功能強(qiáng)大的Python爬蟲(chóng)框架,通過(guò)設(shè)置采集深度,可以優(yōu)化爬蟲(chóng)效率,并防止爬蟲(chóng)陷入無(wú)盡的鏈接循環(huán),本文詳細(xì)介紹了如何在Scrapy中控制采集深度,感興趣的可以了解一下2024-10-10python requests.post帶head和body的實(shí)例
今天小編就為大家分享一篇python requests.post帶head和body的實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-01-01Django正則URL匹配實(shí)現(xiàn)流程解析
這篇文章主要介紹了Django正則URL匹配實(shí)現(xiàn)流程解析,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-11-11Python爬蟲(chóng) scrapy框架爬取某招聘網(wǎng)存入mongodb解析
這篇文章主要介紹了Python爬蟲(chóng) scrapy框架爬取某招聘網(wǎng)存入mongodb解析,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-07-07ROS1?rosbag的詳細(xì)使用并且使用python合并bag包的方法
這篇文章主要介紹了ROS1?rosbag的詳細(xì)使用,并且使用python來(lái)合并bag包,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2023-05-05Python實(shí)現(xiàn)爬取亞馬遜數(shù)據(jù)并打印出Excel文件操作示例
這篇文章主要介紹了Python實(shí)現(xiàn)爬取亞馬遜數(shù)據(jù)并打印出Excel文件操作,結(jié)合實(shí)例形式分析了Python針對(duì)亞馬遜圖書(shū)數(shù)據(jù)的爬取操作,以及數(shù)據(jù)打印輸出Excel相關(guān)實(shí)現(xiàn)技巧,需要的朋友可以參考下2019-05-05