使用Redis有序集合實(shí)現(xiàn)IP歸屬地查詢?cè)斀?/h1>
更新時(shí)間:2019年04月16日 11:01:29 作者:yongxinz
這篇文章主要介紹了使用Redis有序集合實(shí)現(xiàn)IP歸屬地查詢,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
工作中經(jīng)常遇到一類需求,根據(jù) IP 地址段來(lái)查找 IP 對(duì)應(yīng)的歸屬地信息。如果把查詢過(guò)程放到關(guān)系型數(shù)據(jù)庫(kù)中,會(huì)帶來(lái)很大的 IO 消耗,速度也不能滿足,顯然是不合適的。
那有哪些更好的辦法呢?為此做了一些嘗試,下面來(lái)詳細(xì)說(shuō)明。
構(gòu)建索引文件
在 GitHub 上看到一個(gè)ip2region 項(xiàng)目,作者通過(guò)生成一個(gè)包含有二級(jí)索引的文件來(lái)實(shí)現(xiàn)快速查詢,查詢速度足夠快,毫秒級(jí)別。但如果想更新地址段或歸屬地信息,每次都要重新生成文件,并不是很方便。
不過(guò)還是推薦大家看看這個(gè)項(xiàng)目,其中建索引的思想還是很值得學(xué)習(xí)的。作者的開(kāi)源項(xiàng)目中只有查詢的相關(guān)代碼,并沒(méi)有生成索引文件的代碼,我依照原理圖寫(xiě)了一段生成索引文件的代碼,如下:
# -*- coding:utf-8 -*-
import time
import socket
import struct
IP_REGION_FILE = './data/ip_to_region.db'
SUPER_BLOCK_LENGTH = 8
INDEX_BLOCK_LENGTH = 12
HEADER_INDEX_LENGTH = 8192
def generate_db_file():
pointer = SUPER_BLOCK_LENGTH + HEADER_INDEX_LENGTH
region, index = '', ''
# 文件格式
# 1.0.0.0|1.0.0.255|澳大利亞|0|0|0|0
# 1.0.1.0|1.0.3.255|中國(guó)|0|福建省|福州市|電信
with open('./ip.merge.txt', 'r') as f:
for line in f.readlines():
item = line.strip().split('|')
print item[0], item[1], item[2], item[3], item[4], item[5], item[6]
start_ip = struct.pack('I', struct.unpack('!L', socket.inet_aton(item[0]))[0])
end_ip = struct.pack('I', struct.unpack('!L', socket.inet_aton(item[1]))[0])
region_item = '|'.join([item[2], item[3], item[4], item[5], item[6]])
region += region_item
ptr = struct.pack('I', int(bin(len(region_item))[2:].zfill(8) + bin(pointer)[2:].zfill(24), 2))
index += start_ip + end_ip + ptr
pointer += len(region_item)
index_start_ptr = pointer
index_end_ptr = pointer + len(index) - 12
super_block = struct.pack('I', index_start_ptr) + struct.pack('I', index_end_ptr)
n = 0
header_index = ''
for index_block in range(pointer, index_end_ptr, 8184):
header_index_block_ip = index[n * 8184:n * 8184 + 4]
header_index_block_ptr = index_block
header_index += header_index_block_ip + struct.pack('I', header_index_block_ptr)
n += 1
header_index += index[len(index) - 12: len(index) - 8] + struct.pack('I', index_end_ptr)
with open(IP_REGION_FILE, 'wb') as f:
f.write(super_block)
f.write(header_index)
f.seek(SUPER_BLOCK_LENGTH + HEADER_INDEX_LENGTH, 0)
f.write(region)
f.write(index)
if __name__ == '__main__':
start_time = time.time()
generate_db_file()
print 'cost time: ', time.time() - start_time
使用 Redis 緩存
目前有兩種方式對(duì) IP 以及歸屬地信息進(jìn)行緩存:
第一種是將起始 IP,結(jié)束 IP 以及中間所有 IP 轉(zhuǎn)換成整型,然后以字符串方式,用轉(zhuǎn)換后的 IP 作為 key,歸屬地信息作為 value 存入 Redis;
第二種是采用有序集合和散列方式,首先將起始 IP 和結(jié)束 IP 添加到有序集合 ip2cityid,城市 ID 作為成員,轉(zhuǎn)換后的 IP 作為分值,然后再將城市 ID 和歸屬地信息添加到散列 cityid2city,城市 ID 作為 key,歸屬地信息作為 value。
第一種方式就不多做介紹了,簡(jiǎn)單粗暴,非常不推薦。查詢速度當(dāng)然很快,毫秒級(jí)別,但缺點(diǎn)也十分明顯,我用 1000 條數(shù)據(jù)做了測(cè)試,緩存時(shí)間長(zhǎng),大概 20 分鐘,占用空間大,將近 1G。
下面介紹第二種方式,直接看代碼:
# generate_to_redis.py
# -*- coding:utf-8 -*-
import time
import json
from redis import Redis
def ip_to_num(x):
return sum([256 ** j * int(i) for j, i in enumerate(x.split('.')[::-1])])
# 連接 Redis
conn = Redis(host='127.0.0.1', port=6379, db=10)
start_time = time.time()
# 文件格式
# 1.0.0.0|1.0.0.255|澳大利亞|0|0|0|0
# 1.0.1.0|1.0.3.255|中國(guó)|0|福建省|福州市|電信
with open('./ip.merge.txt', 'r') as f:
i = 1
for line in f.readlines():
item = line.strip().split('|')
# 將起始 IP 和結(jié)束 IP 添加到有序集合 ip2cityid
# 成員分別是城市 ID 和 ID + #, 分值是根據(jù) IP 計(jì)算的整數(shù)值
conn.zadd('ip2cityid', str(i), ip_to_num(item[0]), str(i) + '#', ip_to_num(item[1]) + 1)
# 將城市信息添加到散列 cityid2city,key 是城市 ID,值是城市信息的 json 序列
conn.hset('cityid2city', str(i), json.dumps([item[2], item[3], item[4], item[5]]))
i += 1
end_time = time.time()
print 'start_time: ' + str(start_time) + ', end_time: ' + str(end_time) + ', cost time: ' + str(end_time - start_time)
# test.py
# -*- coding:utf-8 -*-
import sys
import time
import json
import socket
import struct
from redis import Redis
# 連接 Redis
conn = Redis(host='127.0.0.1', port=6379, db=10)
# 將 IP 轉(zhuǎn)換成整數(shù)
ip = struct.unpack("!L", socket.inet_aton(sys.argv[1]))[0]
start_time = time.time()
# 將有序集合從大到小排序,取小于輸入 IP 值的第一條數(shù)據(jù)
cityid = conn.zrevrangebyscore('ip2cityid', ip, 0, start=0, num=1)
# 如果返回 cityid 是空,或者匹配到了 # 號(hào),說(shuō)明沒(méi)有找到對(duì)應(yīng)地址段
if not cityid or cityid[0].endswith('#'):
print 'no city info...'
else:
# 根據(jù)城市 ID 到散列表取出城市信息
ret = json.loads(conn.hget('cityid2city', cityid[0]))
print ret[0], ret[1], ret[2]
end_time = time.time()
print 'start_time: ' + str(start_time) + ', end_time: ' + str(end_time) + ', cost time: ' + str(end_time - start_time)
# python generate_to_redis.py
start_time: 1554300310.31, end_time: 1554300425.65, cost time: 115.333260059
# python test_2.py 1.0.16.0
日本 0 0
start_time: 1555081532.44, end_time: 1555081532.45, cost time: 0.000912189483643
測(cè)試數(shù)據(jù)大概 50 萬(wàn)條,緩存所用時(shí)間不到 2 分鐘,占用內(nèi)存 182M,查詢速度毫秒級(jí)別。顯而易見(jiàn),這種方式更值得嘗試。
zrevrangebyscore 方法的時(shí)間復(fù)雜度是 O(log(N)+M), N 為有序集的基數(shù), M 為結(jié)果集的基數(shù)。可見(jiàn)當(dāng) N 的值越大,查詢效率越慢,具體在多大的數(shù)據(jù)量還可以高效查詢,這個(gè)有待驗(yàn)證。不過(guò)這個(gè)問(wèn)題我覺(jué)得并不用擔(dān)心,遇到了再說(shuō)吧。
以上所述是小編給大家介紹的使用Redis有序集合實(shí)現(xiàn)IP歸屬地查詢?cè)斀庹希M麑?duì)大家有所幫助,如果大家有任何疑問(wèn)請(qǐng)給我留言,小編會(huì)及時(shí)回復(fù)大家的。在此也非常感謝大家對(duì)腳本之家網(wǎng)站的支持!
相關(guān)文章
-
Windows系統(tǒng)安裝Redis的詳細(xì)圖文教程
但有時(shí)候想在windows下折騰下Redis,那么就可以參考下面的方法了,雖然腳本之家小編以前整理了一些,發(fā)現(xiàn)這篇做的比較詳細(xì),下載也給出來(lái)了 2018-08-08
-
Redis消息隊(duì)列、阻塞隊(duì)列、延時(shí)隊(duì)列的實(shí)現(xiàn)
Redis是一種常用的內(nèi)存數(shù)據(jù)庫(kù),它提供了豐富的功能,通常用于數(shù)據(jù)緩存和分布式隊(duì)列,本文主要介紹了Redis消息隊(duì)列、阻塞隊(duì)列、延時(shí)隊(duì)列的實(shí)現(xiàn),感興趣的可以了解一下 2023-11-11
-
使用Redis存儲(chǔ)SpringBoot項(xiàng)目中Session的詳細(xì)步驟
在開(kāi)發(fā)Spring Boot項(xiàng)目時(shí),我們通常會(huì)遇到如何高效管理Session的問(wèn)題,默認(rèn)情況下,Spring Boot會(huì)將Session存儲(chǔ)在內(nèi)存中,今天,我們將學(xué)習(xí)如何將Session存儲(chǔ)從內(nèi)存切換到Redis,并驗(yàn)證配置是否成功,需要的朋友可以參考下 2024-06-06
-
Redis之常用數(shù)據(jù)結(jié)構(gòu)哈希表
這篇文章主要介紹了Redis常用的數(shù)據(jù)結(jié)構(gòu)哈希表,哈希表是一種保存鍵值對(duì)的數(shù)據(jù)結(jié)構(gòu),具有一定的參考價(jià)值,需要的朋友可以參考閱讀 2023-04-04
-
Redis中秒殺場(chǎng)景下超時(shí)與超賣問(wèn)題的解決方案
當(dāng)我們?cè)趌inux中使用ab來(lái)模擬高并發(fā)秒殺時(shí)可能會(huì)遇到兩種問(wèn)題,“超時(shí)和超賣”,本文就詳細(xì)介紹了Redis中秒殺場(chǎng)景下超時(shí)與超賣問(wèn)題的解決方案,感興趣的可以了解一下 2022-05-05
最新評(píng)論
工作中經(jīng)常遇到一類需求,根據(jù) IP 地址段來(lái)查找 IP 對(duì)應(yīng)的歸屬地信息。如果把查詢過(guò)程放到關(guān)系型數(shù)據(jù)庫(kù)中,會(huì)帶來(lái)很大的 IO 消耗,速度也不能滿足,顯然是不合適的。
那有哪些更好的辦法呢?為此做了一些嘗試,下面來(lái)詳細(xì)說(shuō)明。
構(gòu)建索引文件
在 GitHub 上看到一個(gè)ip2region 項(xiàng)目,作者通過(guò)生成一個(gè)包含有二級(jí)索引的文件來(lái)實(shí)現(xiàn)快速查詢,查詢速度足夠快,毫秒級(jí)別。但如果想更新地址段或歸屬地信息,每次都要重新生成文件,并不是很方便。
不過(guò)還是推薦大家看看這個(gè)項(xiàng)目,其中建索引的思想還是很值得學(xué)習(xí)的。作者的開(kāi)源項(xiàng)目中只有查詢的相關(guān)代碼,并沒(méi)有生成索引文件的代碼,我依照原理圖寫(xiě)了一段生成索引文件的代碼,如下:
# -*- coding:utf-8 -*- import time import socket import struct IP_REGION_FILE = './data/ip_to_region.db' SUPER_BLOCK_LENGTH = 8 INDEX_BLOCK_LENGTH = 12 HEADER_INDEX_LENGTH = 8192 def generate_db_file(): pointer = SUPER_BLOCK_LENGTH + HEADER_INDEX_LENGTH region, index = '', '' # 文件格式 # 1.0.0.0|1.0.0.255|澳大利亞|0|0|0|0 # 1.0.1.0|1.0.3.255|中國(guó)|0|福建省|福州市|電信 with open('./ip.merge.txt', 'r') as f: for line in f.readlines(): item = line.strip().split('|') print item[0], item[1], item[2], item[3], item[4], item[5], item[6] start_ip = struct.pack('I', struct.unpack('!L', socket.inet_aton(item[0]))[0]) end_ip = struct.pack('I', struct.unpack('!L', socket.inet_aton(item[1]))[0]) region_item = '|'.join([item[2], item[3], item[4], item[5], item[6]]) region += region_item ptr = struct.pack('I', int(bin(len(region_item))[2:].zfill(8) + bin(pointer)[2:].zfill(24), 2)) index += start_ip + end_ip + ptr pointer += len(region_item) index_start_ptr = pointer index_end_ptr = pointer + len(index) - 12 super_block = struct.pack('I', index_start_ptr) + struct.pack('I', index_end_ptr) n = 0 header_index = '' for index_block in range(pointer, index_end_ptr, 8184): header_index_block_ip = index[n * 8184:n * 8184 + 4] header_index_block_ptr = index_block header_index += header_index_block_ip + struct.pack('I', header_index_block_ptr) n += 1 header_index += index[len(index) - 12: len(index) - 8] + struct.pack('I', index_end_ptr) with open(IP_REGION_FILE, 'wb') as f: f.write(super_block) f.write(header_index) f.seek(SUPER_BLOCK_LENGTH + HEADER_INDEX_LENGTH, 0) f.write(region) f.write(index) if __name__ == '__main__': start_time = time.time() generate_db_file() print 'cost time: ', time.time() - start_time
使用 Redis 緩存
目前有兩種方式對(duì) IP 以及歸屬地信息進(jìn)行緩存:
第一種是將起始 IP,結(jié)束 IP 以及中間所有 IP 轉(zhuǎn)換成整型,然后以字符串方式,用轉(zhuǎn)換后的 IP 作為 key,歸屬地信息作為 value 存入 Redis;
第二種是采用有序集合和散列方式,首先將起始 IP 和結(jié)束 IP 添加到有序集合 ip2cityid,城市 ID 作為成員,轉(zhuǎn)換后的 IP 作為分值,然后再將城市 ID 和歸屬地信息添加到散列 cityid2city,城市 ID 作為 key,歸屬地信息作為 value。
第一種方式就不多做介紹了,簡(jiǎn)單粗暴,非常不推薦。查詢速度當(dāng)然很快,毫秒級(jí)別,但缺點(diǎn)也十分明顯,我用 1000 條數(shù)據(jù)做了測(cè)試,緩存時(shí)間長(zhǎng),大概 20 分鐘,占用空間大,將近 1G。
下面介紹第二種方式,直接看代碼:
# generate_to_redis.py # -*- coding:utf-8 -*- import time import json from redis import Redis def ip_to_num(x): return sum([256 ** j * int(i) for j, i in enumerate(x.split('.')[::-1])]) # 連接 Redis conn = Redis(host='127.0.0.1', port=6379, db=10) start_time = time.time() # 文件格式 # 1.0.0.0|1.0.0.255|澳大利亞|0|0|0|0 # 1.0.1.0|1.0.3.255|中國(guó)|0|福建省|福州市|電信 with open('./ip.merge.txt', 'r') as f: i = 1 for line in f.readlines(): item = line.strip().split('|') # 將起始 IP 和結(jié)束 IP 添加到有序集合 ip2cityid # 成員分別是城市 ID 和 ID + #, 分值是根據(jù) IP 計(jì)算的整數(shù)值 conn.zadd('ip2cityid', str(i), ip_to_num(item[0]), str(i) + '#', ip_to_num(item[1]) + 1) # 將城市信息添加到散列 cityid2city,key 是城市 ID,值是城市信息的 json 序列 conn.hset('cityid2city', str(i), json.dumps([item[2], item[3], item[4], item[5]])) i += 1 end_time = time.time() print 'start_time: ' + str(start_time) + ', end_time: ' + str(end_time) + ', cost time: ' + str(end_time - start_time)
# test.py # -*- coding:utf-8 -*- import sys import time import json import socket import struct from redis import Redis # 連接 Redis conn = Redis(host='127.0.0.1', port=6379, db=10) # 將 IP 轉(zhuǎn)換成整數(shù) ip = struct.unpack("!L", socket.inet_aton(sys.argv[1]))[0] start_time = time.time() # 將有序集合從大到小排序,取小于輸入 IP 值的第一條數(shù)據(jù) cityid = conn.zrevrangebyscore('ip2cityid', ip, 0, start=0, num=1) # 如果返回 cityid 是空,或者匹配到了 # 號(hào),說(shuō)明沒(méi)有找到對(duì)應(yīng)地址段 if not cityid or cityid[0].endswith('#'): print 'no city info...' else: # 根據(jù)城市 ID 到散列表取出城市信息 ret = json.loads(conn.hget('cityid2city', cityid[0])) print ret[0], ret[1], ret[2] end_time = time.time() print 'start_time: ' + str(start_time) + ', end_time: ' + str(end_time) + ', cost time: ' + str(end_time - start_time)
# python generate_to_redis.py start_time: 1554300310.31, end_time: 1554300425.65, cost time: 115.333260059
# python test_2.py 1.0.16.0 日本 0 0 start_time: 1555081532.44, end_time: 1555081532.45, cost time: 0.000912189483643
測(cè)試數(shù)據(jù)大概 50 萬(wàn)條,緩存所用時(shí)間不到 2 分鐘,占用內(nèi)存 182M,查詢速度毫秒級(jí)別。顯而易見(jiàn),這種方式更值得嘗試。
zrevrangebyscore 方法的時(shí)間復(fù)雜度是 O(log(N)+M), N 為有序集的基數(shù), M 為結(jié)果集的基數(shù)。可見(jiàn)當(dāng) N 的值越大,查詢效率越慢,具體在多大的數(shù)據(jù)量還可以高效查詢,這個(gè)有待驗(yàn)證。不過(guò)這個(gè)問(wèn)題我覺(jué)得并不用擔(dān)心,遇到了再說(shuō)吧。
以上所述是小編給大家介紹的使用Redis有序集合實(shí)現(xiàn)IP歸屬地查詢?cè)斀庹希M麑?duì)大家有所幫助,如果大家有任何疑問(wèn)請(qǐng)給我留言,小編會(huì)及時(shí)回復(fù)大家的。在此也非常感謝大家對(duì)腳本之家網(wǎng)站的支持!
相關(guān)文章
Windows系統(tǒng)安裝Redis的詳細(xì)圖文教程
但有時(shí)候想在windows下折騰下Redis,那么就可以參考下面的方法了,雖然腳本之家小編以前整理了一些,發(fā)現(xiàn)這篇做的比較詳細(xì),下載也給出來(lái)了2018-08-08Redis消息隊(duì)列、阻塞隊(duì)列、延時(shí)隊(duì)列的實(shí)現(xiàn)
Redis是一種常用的內(nèi)存數(shù)據(jù)庫(kù),它提供了豐富的功能,通常用于數(shù)據(jù)緩存和分布式隊(duì)列,本文主要介紹了Redis消息隊(duì)列、阻塞隊(duì)列、延時(shí)隊(duì)列的實(shí)現(xiàn),感興趣的可以了解一下2023-11-11使用Redis存儲(chǔ)SpringBoot項(xiàng)目中Session的詳細(xì)步驟
在開(kāi)發(fā)Spring Boot項(xiàng)目時(shí),我們通常會(huì)遇到如何高效管理Session的問(wèn)題,默認(rèn)情況下,Spring Boot會(huì)將Session存儲(chǔ)在內(nèi)存中,今天,我們將學(xué)習(xí)如何將Session存儲(chǔ)從內(nèi)存切換到Redis,并驗(yàn)證配置是否成功,需要的朋友可以參考下2024-06-06Redis之常用數(shù)據(jù)結(jié)構(gòu)哈希表
這篇文章主要介紹了Redis常用的數(shù)據(jù)結(jié)構(gòu)哈希表,哈希表是一種保存鍵值對(duì)的數(shù)據(jù)結(jié)構(gòu),具有一定的參考價(jià)值,需要的朋友可以參考閱讀2023-04-04Redis中秒殺場(chǎng)景下超時(shí)與超賣問(wèn)題的解決方案
當(dāng)我們?cè)趌inux中使用ab來(lái)模擬高并發(fā)秒殺時(shí)可能會(huì)遇到兩種問(wèn)題,“超時(shí)和超賣”,本文就詳細(xì)介紹了Redis中秒殺場(chǎng)景下超時(shí)與超賣問(wèn)題的解決方案,感興趣的可以了解一下2022-05-05