解讀FastAPI異步化為transformers模型打造高性能接口
背景
最近公司需要用到一個Bert模型,使用這個模型對一個短文本做實時的encode(也就是實現(xiàn)文本轉(zhuǎn)換成向量)。
因為模型是基于python的transformers和sentence_transfromers。也就是只能使用python來做。
整體的數(shù)據(jù)流都是通過java來調(diào)用,而python這端只需要提供文本轉(zhuǎn)向量的接口即可。
因為之前就比較喜歡使用fastapi,而且fastapi也比flask快得多。因此將fastapi結(jié)合sentence_transfromers是再正常不過的了。
過程
簡單版本
需要注意的是,這個代碼是cpu密集型的,非常吃cpu的計算。
要想實現(xiàn)這樣的一個功能,其實非常簡單,創(chuàng)建一個python文件叫nlp_api.py,填寫代碼如下:
# 導(dǎo)入包
import numpy as np
import pandas as pd
import torch as t
from tqdm import tqdm
from fastapi import FastAPI
from fastapi.middleware.cors import CORSMiddleware
from sentence_transformers import SentenceTransformer as SBert
import uvicorn
from asgiref.sync import sync_to_async
import asyncio
# 加載模型
model = SBert("/home/dataai/文檔/huzheng/模型部分/預(yù)訓(xùn)練模型/paraphrase-multilingual-MiniLM-L12-v2")
# 啟動app
app = FastAPI()
# 讓app可以跨域
origins = ["*"]
app.add_middleware(
CORSMiddleware,
allow_origins=origins,
allow_credentials=True,
allow_methods=["*"],
allow_headers=["*"],
)
@app.get("/")
async def main():
return {"message": "Hello World"}
# 實現(xiàn)功能
@app.get('/get_vector_simple')
def sentenc2vector_simple(sentence):
"""
這里是提供文本轉(zhuǎn)向量的接口,
:param sentence: 文本字符串
:return: 文本向量
"""
encode1 = model.encode(sentence)
encode1 = encode1.flatten().tolist()
return {'vector': encode1}
if __name__ == '__main__':
uvicorn.run(app='nlp_api:app', host="0.0.0.0",
port=8000, reload=True, debug=True)
運行這個代碼也是非常簡單,直接python運行即可:python nlp_api.py。
上面代碼其實已經(jīng)實現(xiàn)了這個功能。但是要對這個接口 做壓測。這里使用的工具是wrk。我們設(shè)置了100個thread、1000個connection、時間是100秒。最終得到的結(jié)果是:
在1.67分鐘內(nèi),接受了2529個請求;平均下來是每秒接受25.27個請求。這個時候我其實比較滿意了。但是技術(shù)不滿意,說這個太低了。
我使用htop查看了服務(wù)器的運行情況,發(fā)現(xiàn)cpu基本上都是吃滿狀態(tài)。負荷非常高。
改進
既然要考慮到每秒請求這么多的情況下,我用異步試一試。然后把上面的接口 做了異步處理。只要加上這個代碼就行。
async def encode2list(encode):
return encode.flatten().tolist()
@app.get('/get_vector_async')
async def sentenc2vector_async(sentence):
"""
異步版本
這里是提供文本轉(zhuǎn)向量的接口,
:param sentence: 文本字符串
:return: 文本向量
"""
encode1 = await sync_to_async(model.encode)(sentence)
encode1 = await encode2list(encode1)
return {'vector': encode1}
這個時候,就創(chuàng)建了一個異步接口。然后我又使用wrk。設(shè)置了100個thread、1000個connection、時間是100秒。測試這個接口,最終得到的結(jié)果是:
在1.67分鐘內(nèi),接受了7691個請求,平均下來說每秒接受76.84個請求。
我把這個給技術(shù),技術(shù)那邊也基本是滿意了。這樣算下來,我平均一個句子轉(zhuǎn)向量的時間大概需要13ms。這個其實已經(jīng)非常高了。
對比
下圖就是一個接口對比:
- 最上面的框是同步接口效率展示
- 最下面的框是異步接口效率展示

在這次cpu密集型中,異步接口的效率是同步接口效率的3倍。我后來又測試了幾次,基本上都是在3倍以上。
在兩種不同的接口下,我使用htop查看了cpu的運行情況:
- 同步接口被請求時,cpu負載情況:
- 異步接口被請求時,cpu負載情況:
可以看出來,相同的任務(wù)下,cpu的負載沒有那么高,但是效率反而還提高了。
總結(jié)
這個模型400MB,底層基于python,使用了pytorch、transformers、Fastapi等包,實現(xiàn)了文本轉(zhuǎn)向量功能,并且這個接口的效率可以達到每秒處理76條。折合每條的文本轉(zhuǎn)向量的時間只需要13ms左右,我還是很開心的。起碼不用去搞c++、TensorRT之類的東西。python yyds??!
但是我還沒搞懂為什么在cpu密集型的這種任務(wù)下,異步接口效率比同步接口效率高這么多,而且還降低了cpu的使用率。
這條路走通,起碼代表Fastapi一點也不差!!!我后面如果要開別的接口,可能都會用這種方式試一試。
numpy這種,以及Sbert模型其實都不能異步操作的,但是我使用了asgiref.sync,這個可以將非異步的轉(zhuǎn)換成異步。非常方便。
作為Fastapi擁鱉,我還是很開心將他用在生產(chǎn)環(huán)境中。希望可以接受住考驗!
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
參考資料:
相關(guān)文章
Python?clip與range函數(shù)保姆級使用教程
本文主要和大家介紹了詳解Python中clip與range函數(shù)的用法,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參,希望能幫助到大家2022-06-06
如何利用Python處理excel表格中的數(shù)據(jù)
Excel做為職場人最常用的辦公軟件,具有方便、快速、批量處理數(shù)據(jù)的特點,下面這篇文章主要給大家介紹了關(guān)于如何利用Python處理excel表格中數(shù)據(jù)的相關(guān)資料,需要的朋友可以參考下2022-03-03
Python實戰(zhàn)之生成有關(guān)聯(lián)單選問卷
這篇文章主要為大家分享了一個Python實戰(zhàn)小案例——生成有關(guān)聯(lián)單選問卷,并且能根據(jù)問卷總分數(shù)生成對應(yīng)判斷文案結(jié)果,感興趣的可以了解一下2023-04-04
OpenCV模板匹配matchTemplate的實現(xiàn)
這篇文章主要介紹了OpenCV模板匹配matchTemplate的實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2019-10-10
利用python實現(xiàn)簡易版的貪吃蛇游戲(面向python小白)
這篇文章主要給大家介紹了關(guān)于如何利用python實現(xiàn)簡易版的貪吃蛇游戲的相關(guān)資料,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2018-12-12
pycharm使用技巧之自動調(diào)整代碼格式總結(jié)
這篇文章主要給大家介紹了關(guān)于pycharm使用技巧之自動調(diào)整代碼格式總結(jié)的相關(guān)資料,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-11-11

