欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

使用Python獲取網(wǎng)段IP個(gè)數(shù)以及地址清單的方法

 更新時(shí)間:2018年11月01日 11:29:15   作者:grey_csdn  
今天小編就為大家分享一篇使用Python獲取網(wǎng)段IP個(gè)數(shù)以及地址清單的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧

使用Python獲取網(wǎng)段的IP個(gè)數(shù)以及地址清單需要用到IPy的庫(kù),而相應(yīng)的方法主要就是IP。

寫小腳本如下:

 from IPy import IP

 ip = IP('192.168.0.0/16')

 print(ip.len())

 for x in ip:

  print(x)

運(yùn)行結(jié)果:

GreydeMac-mini:01_系統(tǒng)基礎(chǔ)信息模塊詳解 greyzhang$ python ip.py

65536

192.168.0.0

192.168.0.1

192.168.0.2

192.168.0.3

192.168.0.4

192.168.0.5

192.168.0.6

192.168.0.7

192.168.0.8

192.168.0.9

192.168.0.10

192.168.0.11

192.168.0.12

192.168.0.13

192.168.0.14

192.168.0.15

192.168.0.16

192.168.0.17

……………………

192.168.255.241

192.168.255.242

192.168.255.243

192.168.255.244

192.168.255.245

192.168.255.246

192.168.255.247

192.168.255.248

192.168.255.249

192.168.255.250

192.168.255.251

192.168.255.252

192.168.255.253

192.168.255.254

192.168.255.255

從上面的結(jié)果中可以看出,這個(gè)王端中共有65535個(gè)IP,同時(shí)腳本輸出了所有的IP地址清單。至于這個(gè)IP地址的含義可以再做一下簡(jiǎn)單的解釋。代碼中的192.168.0.0/16其實(shí)是一個(gè)私有地址網(wǎng)段。早起的網(wǎng)絡(luò)設(shè)計(jì)中,總是嘗試給所有的計(jì)算機(jī)分配一個(gè)固定的地址,但是隨著局域網(wǎng)的發(fā)展這個(gè)多少有點(diǎn)不必要了。私有的局域內(nèi)部網(wǎng)絡(luò)很多時(shí)候并不需要保護(hù)共有IP。未連接到互聯(lián)網(wǎng)上的機(jī)器并不需要使用唯一的IP地址,因?yàn)樗⒉辉谝蛱鼐W(wǎng)上路由,也不需要與IP地址注冊(cè)表協(xié)調(diào)。在RFC 1981中保留了IPV4的三個(gè)費(fèi)重疊地址,具體的地址說(shuō)明如下:

Python 獲取網(wǎng)段IP個(gè)數(shù)以及地址清單

而代碼中,用到的便是上面表格中的第三個(gè)。針對(duì)前面兩個(gè)的網(wǎng)段IP數(shù)目進(jìn)行獲取如下:

In [67]: ip1 = IP('172.16.0.0/12')


In [68]: ip1.len()

Out[68]: 1048576


In [69]: ip2 = IP('10.0.0.0/8')


In [70]: ip2.len()

Out[70]: 16777216

以上這篇使用Python獲取網(wǎng)段IP個(gè)數(shù)以及地址清單的方法就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

  • python 拷貝特定后綴名文件,并保留原始目錄結(jié)構(gòu)的實(shí)例

    python 拷貝特定后綴名文件,并保留原始目錄結(jié)構(gòu)的實(shí)例

    下面小編就為大家分享一篇python 拷貝特定后綴名文件,并保留原始目錄結(jié)構(gòu)的實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2018-04-04
  • 解決echarts中餅圖標(biāo)簽重疊的問(wèn)題

    解決echarts中餅圖標(biāo)簽重疊的問(wèn)題

    這篇文章主要介紹了解決echarts中餅圖標(biāo)簽重疊的問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2020-05-05
  • Python在Scrapy中設(shè)置采集深度的實(shí)現(xiàn)

    Python在Scrapy中設(shè)置采集深度的實(shí)現(xiàn)

    Scrapy是一個(gè)功能強(qiáng)大的Python爬蟲(chóng)框架,通過(guò)設(shè)置采集深度,可以優(yōu)化爬蟲(chóng)效率,并防止爬蟲(chóng)陷入無(wú)盡的鏈接循環(huán),本文詳細(xì)介紹了如何在Scrapy中控制采集深度,感興趣的可以了解一下
    2024-10-10
  • python requests.post帶head和body的實(shí)例

    python requests.post帶head和body的實(shí)例

    今天小編就為大家分享一篇python requests.post帶head和body的實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2019-01-01
  • Django正則URL匹配實(shí)現(xiàn)流程解析

    Django正則URL匹配實(shí)現(xiàn)流程解析

    這篇文章主要介紹了Django正則URL匹配實(shí)現(xiàn)流程解析,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-11-11
  • Python爬蟲(chóng) scrapy框架爬取某招聘網(wǎng)存入mongodb解析

    Python爬蟲(chóng) scrapy框架爬取某招聘網(wǎng)存入mongodb解析

    這篇文章主要介紹了Python爬蟲(chóng) scrapy框架爬取某招聘網(wǎng)存入mongodb解析,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2019-07-07
  • ROS1?rosbag的詳細(xì)使用并且使用python合并bag包的方法

    ROS1?rosbag的詳細(xì)使用并且使用python合并bag包的方法

    這篇文章主要介紹了ROS1?rosbag的詳細(xì)使用,并且使用python來(lái)合并bag包,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2023-05-05
  • python訪問(wèn)hdfs的操作

    python訪問(wèn)hdfs的操作

    這篇文章主要介紹了python訪問(wèn)hdfs的操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2020-06-06
  • python?nonlocal的用法詳解

    python?nonlocal的用法詳解

    這篇文章主要給大家介紹了關(guān)于python?nonlocal用法的相關(guān)資料,最近在python學(xué)習(xí)中遇到了nonlocal關(guān)鍵字但是感到困惑,于是記錄nonlocal關(guān)鍵字用法,需要的朋友可以參考下
    2023-10-10
  • Python實(shí)現(xiàn)爬取亞馬遜數(shù)據(jù)并打印出Excel文件操作示例

    Python實(shí)現(xiàn)爬取亞馬遜數(shù)據(jù)并打印出Excel文件操作示例

    這篇文章主要介紹了Python實(shí)現(xiàn)爬取亞馬遜數(shù)據(jù)并打印出Excel文件操作,結(jié)合實(shí)例形式分析了Python針對(duì)亞馬遜圖書(shū)數(shù)據(jù)的爬取操作,以及數(shù)據(jù)打印輸出Excel相關(guān)實(shí)現(xiàn)技巧,需要的朋友可以參考下
    2019-05-05

最新評(píng)論