python操作kafka的詳細(xì)步驟
一、參考阿里云的官方鏈接:
使用Python SDK接入Kafka收發(fā)消息_云消息隊(duì)列 Kafka 版(Kafka)-阿里云幫助中心
二、安裝python環(huán)境
三、添加python依賴庫
pip install confluent-kafka==1.9.2
四、新建一個(gè)setting.py文件配置信息
kafka_setting = { 'sasl_plain_username': 'XXX', #如果是默認(rèn)接入點(diǎn)實(shí)例,請刪除該配置。 'sasl_plain_password': 'XXX', #如果是默認(rèn)接入點(diǎn)實(shí)例,請刪除該配置。 'bootstrap_servers': '[xxx,xxx,xxx]', 'topic_name': 'XXX', 'group_name': 'XXX' }
五、生產(chǎn)者和消費(fèi)者
5.1 生產(chǎn)者示例:
# -*- coding: utf-8 -*- import json import json import msgpack from loguru import logger from kafka import KafkaProducer from kafka.errors import KafkaError def kfk_produce_1(): """ 發(fā)送 json 格式數(shù)據(jù) :return: """ producer = KafkaProducer( bootstrap_servers='ip:9092', value_serializer=lambda v: json.dumps(v).encode('utf-8') ) producer.send('test_topic', {'key1': 'value1'}) def kfk_produce_2(): """ 發(fā)送 string 格式數(shù)據(jù) :return: """ producer = KafkaProducer(bootstrap_servers='xxxx:x') data_dict = { "name": 'king', 'age': 100, "msg": "Hello World" } msg = json.dumps(data_dict) producer.send('test_topic', msg, partition=0) producer.close() def kfk_produce_3(): producer = KafkaProducer(bootstrap_servers=['broker1:1234']) # Asynchronous by default ( 默認(rèn)是異步發(fā)送 ) future = producer.send('my-topic', b'raw_bytes') # Block for 'synchronous' sends try: record_metadata = future.get(timeout=10) except KafkaError: # Decide what to do if produce request failed... logger.error(KafkaError) pass # Successful result returns assigned partition and offset print(record_metadata.topic) print(record_metadata.partition) print(record_metadata.offset) # produce keyed messages to enable hashed partitioning producer.send('my-topic', key=b'foo', value=b'bar') # encode objects via msgpack producer = KafkaProducer(value_serializer=msgpack.dumps) producer.send('msgpack-topic', {'key': 'value'}) # produce json messages producer = KafkaProducer(value_serializer=lambda m: json.dumps(m).encode('ascii')) producer.send('json-topic', {'key': 'value'}) # produce asynchronously for _ in range(100): producer.send('my-topic', b'msg') def on_send_success(record_metadata=None): print(record_metadata.topic) print(record_metadata.partition) print(record_metadata.offset) def on_send_error(excp=None): logger.error('I am an errback', exc_info=excp) # handle exception # produce asynchronously with callbacks producer.send('my-topic', b'raw_bytes').add_callback(on_send_success).add_errback(on_send_error) # block until all async messages are sent producer.flush() # configure multiple retries producer = KafkaProducer(retries=5) if __name__ == '__main__': kfk_produce_1() kfk_produce_2() pass
5.2 消費(fèi)者 示例:
# -*- coding: utf-8 -*- import json import msgpack from kafka import KafkaConsumer # To consume latest messages and auto-commit offsets consumer = KafkaConsumer( 'my-topic', group_id='my-group', bootstrap_servers=['localhost:9092'] ) for message in consumer: # message value and key are raw bytes -- decode if necessary! # e.g., for unicode: `message.value.decode('utf-8')` info = f'{message.topic}:{message.partition}:{message.offset}: key={message.key}, value={message.value}' print(info) # consume earliest available messages, don't commit offsets KafkaConsumer(auto_offset_reset='earliest', enable_auto_commit=False) # consume json messages KafkaConsumer(value_deserializer=lambda m: json.loads(m.decode('ascii'))) # consume msgpack KafkaConsumer(value_deserializer=msgpack.unpackb) # StopIteration if no message after 1sec ( 沒有消息時(shí),1s后停止消費(fèi) ) KafkaConsumer(consumer_timeout_ms=1000) # Subscribe to a regex topic pattern consumer = KafkaConsumer() consumer.subscribe(pattern='^awesome.*') # Use multiple consumers in parallel w/ 0.9 kafka brokers # typically you would run each on a different server / process / CPU consumer1 = KafkaConsumer( 'my-topic', group_id='my-group', bootstrap_servers='my.server.com' ) consumer2 = KafkaConsumer( 'my-topic', group_id='my-group', bootstrap_servers='my.server.com' )
5.3 簡單封裝:
# -*- coding: utf-8 -*- import time import json import ujson import random from loguru import logger from kafka import KafkaProducer, KafkaConsumer class KafkaOperate(object): def __init__(self, bootstrap_servers=None): if not bootstrap_servers: raise Exception('bootstrap_servers is None') self.__bootstrap_servers = None if isinstance(bootstrap_servers, str): ip_port_string = bootstrap_servers.strip() if ',' in ip_port_string: self.__bootstrap_servers = ip_port_string.replace(' ', '').split(',') else: self.__bootstrap_servers = [ip_port_string] self.kafka_producer = None self.kafka_consumer = None pass def __del__(self): pass def kfk_consume(self, topic_name=None, group_id='my_group'): if not self.kafka_consumer: self.kafka_consumer = KafkaConsumer( topic_name, group_id=group_id, bootstrap_servers=self.__bootstrap_servers, auto_offset_reset='earliest', ) count = 0 for msg in self.kafka_consumer: count += 1 # message value and key are raw bytes -- decode if necessary! # e.g., for unicode: `message.value.decode('utf-8')` info = f'[{count}] {msg.topic}:{msg.partition}:{msg.offset}: key={msg.key}, value={msg.value.decode("utf-8")}' logger.info(info) time.sleep(1) def __kfk_produce(self, topic_name=None, data_dict=None, partition=None): """ 如果想要多線程進(jìn)行消費(fèi),可以設(shè)置 發(fā)往不通的 partition 有多少個(gè) partition 就可以啟多少個(gè)線程同時(shí)進(jìn)行消費(fèi), :param topic_name: :param data_dict: :param partition: :return: """ if not self.kafka_producer: self.kafka_producer = KafkaProducer( bootstrap_servers=self.__bootstrap_servers, client_id='my_group', value_serializer=lambda v: json.dumps(v).encode('utf-8') ) # data_dict = { # "name": 'king', # 'age': 100, # "msg": "Hello World" # } if partition: self.kafka_producer.send( topic=topic_name, value=data_dict, # key='count_num', # 同一個(gè)key值,會被送至同一個(gè)分區(qū) partition=partition ) else: self.kafka_producer.send(topic_name, data_dict) pass def kfk_produce_one(self, topic_name=None, data_dict=None, partition=None, partition_count=1): partition = partition if partition else random.randint(0, partition_count-1) self.__kfk_produce(topic_name=topic_name, data_dict=data_dict, partition=partition) self.kafka_producer.flush() def kfk_produce_many(self, topic_name=None, data_dict_list=None, partition=None, partition_count=1, per_count=100): count = 0 for data_dict in data_dict_list: partition = partition if partition else count % partition_count self.__kfk_produce(topic_name=topic_name, data_dict=data_dict, partition=partition) if 0 == count % per_count: self.kafka_producer.flush() count += 1 self.kafka_producer.flush() pass @staticmethod def get_consumer(group_id: str, bootstrap_servers: list, topic: str, enable_auto_commit=True) -> KafkaConsumer: topics = tuple([x.strip() for x in topic.split(',') if x.strip()]) if enable_auto_commit: return KafkaConsumer( *topics, group_id=group_id, bootstrap_servers=bootstrap_servers, auto_offset_reset='earliest', # fetch_max_bytes=FETCH_MAX_BYTES, # connections_max_idle_ms=CONNECTIONS_MAX_IDLE_MS, # max_poll_interval_ms=KAFKA_MAX_POLL_INTERVAL_MS, # session_timeout_ms=SESSION_TIMEOUT_MS, # max_poll_records=KAFKA_MAX_POLL_RECORDS, # request_timeout_ms=REQUEST_TIMEOUT_MS, # auto_commit_interval_ms=AUTO_COMMIT_INTERVAL_MS, value_deserializer=lambda m: ujson.loads(m.decode('utf-8')) ) else: return KafkaConsumer( *topics, group_id=group_id, bootstrap_servers=bootstrap_servers, auto_offset_reset='earliest', # fetch_max_bytes=FETCH_MAX_BYTES, # connections_max_idle_ms=CONNECTIONS_MAX_IDLE_MS, # max_poll_interval_ms=KAFKA_MAX_POLL_INTERVAL_MS, # session_timeout_ms=SESSION_TIMEOUT_MS, # max_poll_records=KAFKA_MAX_POLL_RECORDS, # request_timeout_ms=REQUEST_TIMEOUT_MS, enable_auto_commit=enable_auto_commit, value_deserializer=lambda m: ujson.loads(m.decode('utf-8')) ) @staticmethod def get_producer(bootstrap_servers: list): return KafkaProducer(bootstrap_servers=bootstrap_servers, retries=5) if __name__ == '__main__': bs = '10.10.10.10:9092' kafka_op = KafkaOperate(bootstrap_servers=bs) kafka_op.kfk_consume(topic_name='001_test') pass
5.4 示例:
# -*- coding:utf-8 -*- import json from kafka import KafkaConsumer, KafkaProducer class KProducer: def __init__(self, bootstrap_servers, topic): """ kafka 生產(chǎn)者 :param bootstrap_servers: 地址 :param topic: topic """ self.producer = KafkaProducer( bootstrap_servers=bootstrap_servers, value_serializer=lambda m: json.dumps(m).encode('ascii'), ) # json 格式化發(fā)送的內(nèi)容 self.topic = topic def sync_producer(self, data_li: list): """ 同步發(fā)送 數(shù)據(jù) :param data_li: 發(fā)送數(shù)據(jù) :return: """ for data in data_li: future = self.producer.send(self.topic, data) record_metadata = future.get(timeout=10) # 同步確認(rèn)消費(fèi) partition = record_metadata.partition # 數(shù)據(jù)所在的分區(qū) offset = record_metadata.offset # 數(shù)據(jù)所在分區(qū)的位置 print('save success, partition: {}, offset: {}'.format(partition, offset)) def asyn_producer(self, data_li: list): """ 異步發(fā)送數(shù)據(jù) :param data_li:發(fā)送數(shù)據(jù) :return: """ for data in data_li: self.producer.send(self.topic, data) self.producer.flush() # 批量提交 def asyn_producer_callback(self, data_li: list): """ 異步發(fā)送數(shù)據(jù) + 發(fā)送狀態(tài)處理 :param data_li:發(fā)送數(shù)據(jù) :return: """ for data in data_li: self.producer.send(self.topic, data).add_callback(self.send_success).add_errback(self.send_error) self.producer.flush() # 批量提交 def send_success(self, *args, **kwargs): """異步發(fā)送成功回調(diào)函數(shù)""" print('save success') return def send_error(self, *args, **kwargs): """異步發(fā)送錯誤回調(diào)函數(shù)""" print('save error') return def close_producer(self): try: self.producer.close() except: pass if __name__ == '__main__': send_data_li = [{"test": 1}, {"test": 2}] kp = KProducer(topic='topic', bootstrap_servers='127.0.0.1:9001,127.0.0.1:9002') # 同步發(fā)送 kp.sync_producer(send_data_li) # 異步發(fā)送 # kp.asyn_producer(send_data_li) # 異步+回調(diào) # kp.asyn_producer_callback(send_data_li) kp.close_producer()
KafkaConsumer 的 構(gòu)造參數(shù):
- *topics ,要訂閱的主題
- auto_offset_reset:總共3種值:earliest 、latest、none earliest :
當(dāng)各分區(qū)下有已提交的 offset 時(shí),從提交的 offset 開始消費(fèi);
無提交的 offset時(shí),從頭開始消費(fèi) latest :
當(dāng)各分區(qū)下有已提交的offset時(shí),從提交的offset開始消費(fèi);
無提交的offset時(shí),消費(fèi)新產(chǎn)生的該分區(qū)下的數(shù)據(jù) none :
topic 各分區(qū)都存在已提交的 offset 時(shí),從 offset 后開始消費(fèi);
只要有一個(gè)分區(qū)不存在已提交的 offset,則拋出異常 - bootstrap_servers :kafka節(jié)點(diǎn)或節(jié)點(diǎn)的列表,不一定需要羅列所有的kafka節(jié)點(diǎn)。格式為: ‘host[:port]’ 。默認(rèn)值是:localhost:9092
- client_id (str) : 客戶端id,默認(rèn)值: ‘kafka-python-{version}’
- group_id (str or None):分組id
- key_deserializer (callable) :key反序列化函數(shù)
- value_deserializer (callable):value反序列化函數(shù)
- fetch_min_bytes:服務(wù)器應(yīng)每次返回的最小數(shù)據(jù)量
- fetch_max_wait_ms (int): 服務(wù)器應(yīng)每次返回的最大等待時(shí)間
- fetch_max_bytes (int) :服務(wù)器應(yīng)每次返回的最大數(shù)據(jù)量
- max_partition_fetch_bytes (int) :
- request_timeout_ms (int) retry_backoff_ms (int)
- reconnect_backoff_ms (int)
- reconnect_backoff_max_ms (int)
- max_in_flight_requests_per_connection (int)
- auto_offset_reset (str) enable_auto_commit (bool)
- auto_commit_interval_ms (int)
- default_offset_commit_callback (callable)
- check_crcs (bool)
- metadata_max_age_ms (int)
- partition_assignment_strategy (list)
- max_poll_records (int)
- max_poll_interval_ms (int)
- session_timeout_ms (int)
- heartbeat_interval_ms (int)
- receive_buffer_bytes (int)
- send_buffer_bytes (int)
- socket_options (list)
- consumer_timeout_ms (int)
- skip_double_compressed_messages (bool)
- security_protocol (str)
- ssl_context (ssl.SSLContext)
- ssl_check_hostname (bool)
- ssl_cafile (str) –
- ssl_certfile (str)
- ssl_keyfile (str)
- ssl_password (str)
- ssl_crlfile (str)
- api_version (tuple)
KafkaConsumer 的 函數(shù)
- assign(partitions):手動為該消費(fèi)者分配一個(gè)topic分區(qū)列表。
- assignment():獲取當(dāng)前分配給該消費(fèi)者的topic分區(qū)。
- beginning_offsets(partitions):獲取給定分區(qū)的第一個(gè)偏移量。
- close(autocommit=True):關(guān)閉消費(fèi)者
- commit(offsets=None):提交偏移量,直到成功或錯誤為止。
- commit_async(offsets=None, callback=None):異步提交偏移量。
- committed(partition):獲取給定分區(qū)的最后一個(gè)提交的偏移量。
- end_offsets(partitions):獲取分區(qū)的最大偏移量
- highwater(partition):分區(qū)最大的偏移量
- metrics(raw=False):返回消費(fèi)者性能指標(biāo)
- next():返回下一條數(shù)據(jù)
- offsets_for_times(timestamps):根據(jù)時(shí)間戳獲取分區(qū)偏移量
- partitions_for_topic(topic):返回topic的partition列表,返回一個(gè)set集合
- pause(*partitions):停止獲取數(shù)據(jù)paused():返回停止獲取的分區(qū)poll(timeout_ms=0, max_records=None):獲取數(shù)據(jù)
- position(partition):獲取分區(qū)的偏移量
- resume(*partitions):恢復(fù)抓取指定的分區(qū)
- seek(partition, offset):seek偏移量
- seek_to_beginning(*partitions):搜索最舊的偏移量
- seek_to_end(*partitions):搜索最近可用的偏移量
- subscribe(topics=(), pattern=None, listener=None):訂閱topics
- subscription():返回當(dāng)前消費(fèi)者消費(fèi)的所有topic
- topics():返回當(dāng)前消費(fèi)者消費(fèi)的所有topic,返回的是unicode
- unsubscribe():取消訂閱所有的topic
六、簡單的消費(fèi)者代碼:
from kafka import KafkaConsumer consumer = KafkaConsumer('test_rhj', bootstrap_servers=['xxxx:x']) for msg in consumer: recv = "%s:%d:%d: key=%s value=%s" % ( msg.topic, msg.partition, msg.offset, msg.key, msg.value ) print(recv)
七、kafka 的 分區(qū)機(jī)制
如果想要完成負(fù)載均衡,就需要知道 kafka 的分區(qū)機(jī)制,
- 同一個(gè) 主題 ( topic ) ,可以為其分區(qū),
- 生產(chǎn)者在不指定分區(qū)的情況,kafka 會將多個(gè)消息分發(fā)到不同的分區(qū),
消費(fèi)者訂閱時(shí)候
- 如果 不指定服務(wù)組,會收到所有分區(qū)的消息,
- 如果 指定了服務(wù)組,則同一服務(wù)組的消費(fèi)者會消費(fèi)不同的分區(qū),
- 如果2個(gè)分區(qū)兩個(gè)消費(fèi)者的消費(fèi)者組消費(fèi),則每個(gè)消費(fèi)者消費(fèi)一個(gè)分區(qū),
- 如果有三個(gè)消費(fèi)者的服務(wù)組,則會出現(xiàn)一個(gè)消費(fèi)者消費(fèi)不到數(shù)據(jù);如果想要消費(fèi)同一分區(qū),則需要用不同的服務(wù)組。
以此為原理,我們對消費(fèi)者做如下修改:
from kafka import KafkaConsumer consumer = KafkaConsumer( 'test_rhj', group_id='123456', bootstrap_servers=['10.43.35.25:4531'] ) for msg in consumer: recv = "%s:%d:%d: key=%s value=%s" % ( msg.topic, msg.partition, msg.offset, msg.key, msg.value ) print(recv)
開兩個(gè)消費(fèi)者進(jìn)行消費(fèi),生產(chǎn)者分別往 0分區(qū) 和 1分區(qū) 發(fā)消息結(jié)果如下,可以看到,一個(gè)消費(fèi)者只能消費(fèi)0分區(qū),另一個(gè)只能消費(fèi)1分區(qū):
八、偏移量
kafka 提供了 "偏移量" 的概念,允許消費(fèi)者根據(jù)偏移量消費(fèi)之前遺漏的內(nèi)容,這基于 kafka 名義上的全量存儲,可以保留大量的歷史數(shù)據(jù),歷史保存時(shí)間是可配置的,一般是7天,如果偏移量定位到了已刪除的位置那也會有問題,但是這種情況可能很?。幻總€(gè)保存的數(shù)據(jù)文件都是以偏移量命名的,當(dāng)前要查的偏移量減去文件名就是數(shù)據(jù)在該文件的相對位置。要指定偏移量消費(fèi)數(shù)據(jù),需要指定該消費(fèi)者要消費(fèi)的分區(qū),否則代碼會找不到分區(qū)而無法消費(fèi),代碼如下:
from kafka import KafkaConsumer from kafka.structs import TopicPartition consumer = KafkaConsumer( group_id='123456', bootstrap_servers=['10.43.35.25:4531'] ) consumer.assign( [ TopicPartition(topic='test_rhj', partition=0), TopicPartition(topic='test_rhj', partition=1) ] ) print(consumer.partitions_for_topic("test_rhj")) # 獲取test主題的分區(qū)信息 print(consumer.assignment()) print(consumer.beginning_offsets(consumer.assignment())) consumer.seek(TopicPartition(topic='test_rhj', partition=0), 0) for msg in consumer: recv = "%s:%d:%d: key=%s value=%s" % ( msg.topic, msg.partition, msg.offset, msg.key, msg.value ) print(recv)
因?yàn)橹付ǖ钠屏繛?0,所以從一開始插入的數(shù)據(jù)都可以查到,而且因?yàn)橹付朔謪^(qū),指定的分區(qū)結(jié)果都可以消費(fèi),結(jié)果如下:
有時(shí)候,我們并不需要實(shí)時(shí)獲取數(shù)據(jù),因?yàn)檫@樣可能會造成性能瓶頸,我們只需要定時(shí)去獲取隊(duì)列里的數(shù)據(jù)然后批量處理就可以,這種情況,我們可以選擇主動拉取數(shù)據(jù)
from kafka import KafkaConsumer import time consumer = KafkaConsumer(group_id='123456', bootstrap_servers=['10.43.35.25:4531']) consumer.subscribe(topics=('test_rhj',)) index = 0 while True: msg = consumer.poll(timeout_ms=5) # 從kafka獲取消息 print(msg) time.sleep(2) index += 1 print('--------poll index is %s----------' % index)
結(jié)果如下,可以看到,每次拉取到的都是前面生產(chǎn)的數(shù)據(jù),可能是多條的列表,也可能沒有數(shù)據(jù),如果沒有數(shù)據(jù),則拉取到的為空:
九、消費(fèi)者 示例
# coding:utf8 from kafka import KafkaConsumer # 創(chuàng)建一個(gè)消費(fèi)者,指定了topic,group_id,bootstrap_servers # group_id: 多個(gè)擁有相同group_id的消費(fèi)者被判定為一組, # 一條數(shù)據(jù)記錄只會被同一個(gè)組中的一個(gè)消費(fèi)者消費(fèi) # bootstrap_servers:kafka的節(jié)點(diǎn),多個(gè)節(jié)點(diǎn)使用逗號分隔 # 這種方式只會獲取新產(chǎn)生的數(shù)據(jù) bootstrap_server_list = [ '192.168.70.221:19092', '192.168.70.222:19092', '192.168.70.223:19092' ] consumer = KafkaConsumer( # kafka 集群地址 bootstrap_servers=','.join(bootstrap_server_list), group_id="my.group", # 消費(fèi)組id enable_auto_commit=True, # 每過一段時(shí)間自動提交所有已消費(fèi)的消息(在迭代時(shí)提交) auto_commit_interval_ms=5000, # 自動提交的周期(毫秒) ) consumer.subscribe(["my.topic"]) # 消息的主題,可以指定多個(gè) for msg in consumer: # 迭代器,等待下一條消息 print(msg) # 打印消息
十、多線程 消費(fèi)
# coding:utf-8 import os import sys import threading from kafka import KafkaConsumer, TopicPartition, OffsetAndMetadata from collections import OrderedDict threads = [] class MyThread(threading.Thread): def __init__(self, thread_name, topic, partition): threading.Thread.__init__(self) self.thread_name = thread_name self.partition = partition self.topic = topic def run(self): print("Starting " + self.name) consumer(self.thread_name, self.topic, self.partition) def stop(self): sys.exit() def consumer(thread_name, topic, partition): broker_list = 'ip1:9092,ip2:9092' ''' fetch_min_bytes(int) - 服務(wù)器為獲取請求而返回的最小數(shù)據(jù)量,否則請等待 fetch_max_wait_ms(int) - 如果沒有足夠的數(shù)據(jù)立即滿足fetch_min_bytes給出的要求,服務(wù)器在回應(yīng)提取請求之前將阻塞的最大時(shí)間量(以毫秒為單位) fetch_max_bytes(int) - 服務(wù)器應(yīng)為獲取請求返回的最大數(shù)據(jù)量。這不是絕對最大值,如果獲取的第一個(gè)非空分區(qū)中的第一條消息大于此值, 則仍將返回消息以確保消費(fèi)者可以取得進(jìn)展。注意:使用者并行執(zhí)行對多個(gè)代理的提取,因此內(nèi)存使用將取決于包含該主題分區(qū)的代理的數(shù)量。 支持的Kafka版本> = 0.10.1.0。默認(rèn)值:52428800(50 MB)。 enable_auto_commit(bool) - 如果為True,則消費(fèi)者的偏移量將在后臺定期提交。默認(rèn)值:True。 max_poll_records(int) - 單次調(diào)用中返回的最大記錄數(shù)poll()。默認(rèn)值:500 max_poll_interval_ms(int) - poll()使用使用者組管理時(shí)的調(diào)用之間的最大延遲 。這為消費(fèi)者在獲取更多記錄之前可以閑置的時(shí)間量設(shè)置了上限。 如果 poll()在此超時(shí)到期之前未調(diào)用,則認(rèn)為使用者失敗,并且該組將重新平衡以便將分區(qū)重新分配給另一個(gè)成員。默認(rèn)300000 ''' consumer_1 = KafkaConsumer( bootstrap_servers=broker_list, group_id="test000001", client_id=thread_name, enable_auto_commit=False, fetch_min_bytes=1024 * 1024, # 1M # fetch_max_bytes=1024 * 1024 * 1024 * 10, fetch_max_wait_ms=60000, # 30s request_timeout_ms=305000, # consumer_timeout_ms=1, # max_poll_records=5000, ) # 設(shè)置topic partition tp = TopicPartition(topic, partition) # 分配該消費(fèi)者的TopicPartition,也就是topic和partition, # 根據(jù)參數(shù),每個(gè)線程消費(fèi)者消費(fèi)一個(gè)分區(qū) consumer_1.assign([tp]) # 獲取上次消費(fèi)的最大偏移量 offset = consumer_1.end_offsets([tp])[tp] print(thread_name, tp, offset) # 設(shè)置消費(fèi)的偏移量 consumer_1.seek(tp, offset) print(u"程序首次運(yùn)行\(zhòng)t線程:", thread_name, u"分區(qū):", partition, u"偏移量:", offset, u"\t開始消費(fèi)...") num = 0 # 記錄該消費(fèi)者消費(fèi)次數(shù) while True: msg = consumer_1.poll(timeout_ms=60000) end_offset = consumer_1.end_offsets([tp])[tp] '''可以自己記錄控制消費(fèi)''' print(u'已保存的偏移量', consumer_1.committed(tp), u'最新偏移量,', end_offset) if len(msg) > 0: print(u"線程:", thread_name, u"分區(qū):", partition, u"最大偏移量:", end_offset, u"有無數(shù)據(jù),", len(msg)) lines = 0 for data in msg.values(): for line in data: print(line) lines += 1 ''' do something ''' # 線程此批次消息條數(shù) print(thread_name, "lines", lines) if True: # 可以自己保存在各topic, partition的偏移量 # 手動提交偏移量 offsets格式:{TopicPartition:OffsetAndMetadata(offset_num,None)} consumer_1.commit(offsets={tp: (OffsetAndMetadata(end_offset, None))}) if not 0: # 系統(tǒng)退出?這個(gè)還沒試 os.exit() ''' sys.exit() 只能退出該線程,也就是說其它兩個(gè)線程正常運(yùn)行,主程序不退出 ''' else: os.exit() else: print(thread_name, '沒有數(shù)據(jù)') num += 1 print(thread_name, "第", num, "次") if __name__ == '__main__': try: t1 = MyThread("Thread-0", "test", 0) threads.append(t1) t2 = MyThread("Thread-1", "test", 1) threads.append(t2) t3 = MyThread("Thread-2", "test", 2) threads.append(t3) for t in threads: t.start() for t in threads: t.join() print("exit program with 0") except: print("Error: failed to run consumer program")
十一、高級用法(消費(fèi)者)
從指定 offset 開始讀取消息,被消費(fèi)過的消息也可以被此方法讀取
創(chuàng)建消費(fèi)者
- 使用 assign 方法重置指定分區(qū)(partition)的讀取偏移(fetch offset)的值
- 使用 seek 方法從指定的partition和offset開始讀取數(shù)據(jù)
#encoding:utf8 from kafka import KafkaConsumer, TopicPartition my_topic = "my.topic" # 指定需要消費(fèi)的主題 consumer = KafkaConsumer( # kafka集群地址 bootstrap_servers = "192.168.70.221:19092,192.168.70.222:19092", group_id = "my.group", # 消費(fèi)組id enable_auto_commit = True, # 每過一段時(shí)間自動提交所有已消費(fèi)的消息(在迭代時(shí)提交) auto_commit_interval_ms = 5000, # 自動提交的周期(毫秒) ) consumer.assign([ TopicPartition(topic=my_topic, partition=0), TopicPartition(topic=my_topic, partition=1), TopicPartition(topic=my_topic, partition=2) ]) # 指定起始 offset 為 12 consumer.seek(TopicPartition(topic=my_topic, partition=0), 12) # 可以注冊多個(gè)分區(qū),此分區(qū)從第一條消息開始接收 consumer.seek(TopicPartition(topic=my_topic, partition=1), 0) # 沒有注冊的分區(qū)上的消息不會被消費(fèi) # consumer.seek(TopicPartition(topic=my_topic, partition=2), 32) for msg in consumer: # 迭代器,等待下一條消息 print msg # 打印消息
其他用法
# 立刻發(fā)送所有數(shù)據(jù)并等待發(fā)送完畢 producer.flush() # 讀取下一條消息 next(consumer) # 手動提交所有已消費(fèi)的消息 consumer.commit() # 手動提交指定的消息 consumer.commit([TopicPartition(my_topic, msg.offset)])
十二、生產(chǎn)者 和 消費(fèi)者 的 Demo
import json import traceback from kafka import KafkaProducer, KafkaConsumer from kafka.errors import kafka_errors def producer_demo(): # 假設(shè)生產(chǎn)的消息為鍵值對(不是一定要鍵值對),且序列化方式為json producer = KafkaProducer( bootstrap_servers=['localhost:9092'], key_serializer=lambda k: json.dumps(k).encode(), value_serializer=lambda v: json.dumps(v).encode()) # 發(fā)送三條消息 for i in range(0, 3): future = producer.send( 'kafka_demo', key='count_num', # 同一個(gè)key值,會被送至同一個(gè)分區(qū) value=str(i), partition=1 # 向分區(qū)1發(fā)送消息 ) print("send {}".format(str(i))) try: future.get(timeout=10) # 監(jiān)控是否發(fā)送成功 except kafka_errors: # 發(fā)送失敗拋出kafka_errors traceback.format_exc() def consumer_demo(): consumer = KafkaConsumer( 'kafka_demo', bootstrap_servers=':9092', group_id='test' ) for message in consumer: print( f"receive, key: {json.loads(message.key.decode())}, " f"value: {json.loads(message.value.decode())}" )
十三、消費(fèi)者進(jìn)階操作
(1)初始化參數(shù):
列舉一些 KafkaConsumer 初始化時(shí)的重要參數(shù):
- group_id :高并發(fā)量,則需要有多個(gè)消費(fèi)者協(xié)作,消費(fèi)進(jìn)度,則由group_id統(tǒng)一。例如消費(fèi)者A與消費(fèi)者B,在初始化時(shí)使用同一個(gè)group_id。在進(jìn)行消費(fèi)時(shí),一條消息被消費(fèi)者A消費(fèi)后,在kafka中會被標(biāo)記,這條消息不會再被B消費(fèi)(前提是A消費(fèi)后正確commit)。
- key_deserializer, value_deserializer :與生產(chǎn)者中的參數(shù)一致,自動解析。
- auto_offset_reset :消費(fèi)者啟動的時(shí)刻,消息隊(duì)列中或許已經(jīng)有堆積的未消費(fèi)消息,有時(shí)候需求是從上一次未消費(fèi)的位置開始讀(則該參數(shù)設(shè)置為 earliest ),有時(shí)候的需求為從當(dāng)前時(shí)刻開始讀之后產(chǎn)生的,之前產(chǎn)生的數(shù)據(jù)不再消費(fèi)(則該參數(shù)設(shè)置為 latest )。
- enable_auto_commit, auto_commit_interval_ms :是否自動commit,當(dāng)前消費(fèi)者消費(fèi)完該數(shù)據(jù)后,需要commit,才可以將消費(fèi)完的信息傳回消息隊(duì)列的控制中心。enable_auto_commit 設(shè)置為 True 后,消費(fèi)者將自動 commit,并且兩次 commit 的時(shí)間間隔為 auto_commit_interval_ms 。
(2)手動 commit
def consumer_demo(): consumer = KafkaConsumer( 'kafka_demo', bootstrap_servers=':9092', group_id='test', enable_auto_commit=False ) for message in consumer: print( f"receive, key: {json.loads(message.key.decode())}, " f"value: {json.loads(message.value.decode())}" ) consumer.commit()
(3)查看 kafka 堆積剩余量
在線環(huán)境中,需要保證消費(fèi)者的消費(fèi)速度大于生產(chǎn)者的生產(chǎn)速度,所以需要檢測 kafka 中的剩余堆積量是在增加還是減小。可以用如下代碼,觀測隊(duì)列消息剩余量:
consumer = KafkaConsumer(topic, **kwargs) partitions = [TopicPartition(topic, p) for p in consumer.partitions_for_topic(topic)] print("start to cal offset:") # total toff = consumer.end_offsets(partitions) toff = [(key.partition, toff[key]) for key in toff.keys()] toff.sort() print("total offset: {}".format(str(toff))) # current coff = [(x.partition, consumer.committed(x)) for x in partitions] coff.sort() print("current offset: {}".format(str(coff))) # cal sum and left toff_sum = sum([x[1] for x in toff]) cur_sum = sum([x[1] for x in coff if x[1] is not None]) left_sum = toff_sum - cur_sum print("kafka left: {}".format(left_sum))
總結(jié)
到此這篇關(guān)于python操作kafka的文章就介紹到這了,更多相關(guān)python操作kafka內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
使用Python進(jìn)行同期群分析(Cohort?Analysis)
同期群(Cohort)的字面意思(有共同特點(diǎn)或舉止類同的)一群人,比如不同性別,不同年齡。這篇文章主要介紹了用Python語言來進(jìn)行同期群分析,感興趣的同學(xué)可以閱讀參考一下本文2023-03-03Python爬蟲通過替換http request header來欺騙瀏覽器實(shí)現(xiàn)登錄功能
這篇文章主要介紹了Python爬蟲通過替換http request header來欺騙瀏覽器實(shí)現(xiàn)登錄功能,需要的朋友可以參考下2018-01-01python使用gdal對shp讀取,新建和更新的實(shí)例
這篇文章主要介紹了python使用gdal對shp讀取,新建和更新的實(shí)例,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-03-03JetBrains PyCharm(Community版本)的下載、安裝和初步使用圖文教程詳解
這篇文章主要介紹了JetBrains PyCharm(Community版本)的下載、安裝和初步使用教程,本文圖文并茂給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)和工作具有一定的參考借鑒價(jià)值 ,需要的朋友可以參考下2020-03-03python關(guān)于矩陣重復(fù)賦值覆蓋問題的解決方法
這篇文章主要介紹了python關(guān)于矩陣重復(fù)賦值覆蓋問題的解決方法,涉及Python深拷貝與淺拷貝相關(guān)操作與使用技巧,需要的朋友可以參考下2019-07-07wxpython多線程防假死與線程間傳遞消息實(shí)例詳解
今天小編就為大家分享一篇wxpython多線程防假死與線程間傳遞消息實(shí)例詳解,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-12-12