教你用PyTorch部署模型的方法
導(dǎo)讀
演示了使用PyTorch最近發(fā)布的新工具torchserve來(lái)進(jìn)行PyTorch模型的部署。
最近,PyTorch推出了名為torchserve.
的新生產(chǎn)框架來(lái)為模型提供服務(wù)。我們看一下今天的roadmap:
1、使用Docker安裝
2、導(dǎo)出模型
3、定義handler
4、保存模型
為了展示torchserve,我們將提供一個(gè)經(jīng)過(guò)全面訓(xùn)練的ResNet34進(jìn)行圖像分類的服務(wù)。
使用Docker安裝
官方文檔:https://github.com/pytorch/serve/blob/master/README.md##install-torchserve
安裝torchserve最好的方法是使用docker。你只需要把鏡像拉下來(lái)。
可以使用以下命令保存最新的鏡像。
docker pull pytorch/torchserve:latest
所有可用的tags:https://hub.docker.com/r/pytorch/torchserve/tags
關(guān)于docker和torchserve的更多信息:https://github.com/pytorch/serve#quick-start-with-docker
Handlers
官方文檔:https://github.com/pytorch/serve/blob/master/docs/custom_service.md
處理程序負(fù)責(zé)使用模型對(duì)一個(gè)或多個(gè)HTTP請(qǐng)求進(jìn)行預(yù)測(cè)。
默認(rèn) handlers
Torchserve支持以下默認(rèn) handlers
image_classifier
object_detector
text_classifier
image_segmenter
但是請(qǐng)記住,它們都不支持batching請(qǐng)求!
自定義 handlers
torchserve提供了一個(gè)豐富的接口,可以做幾乎所有你想做的事情。一個(gè)Handler
是一個(gè)必須有三個(gè)函數(shù)的類。
- preprocess
- inference
- postprocess
你可以創(chuàng)建你自己的類或者子類BaseHandler
。子類化BaseHandler
的主要優(yōu)點(diǎn)是可以在self.model
上訪問(wèn)加載的模型。下面的代碼片段展示了如何子類化BaseHandler
。
子類化BaseHandler以創(chuàng)建自己的handler
回到圖像分類的例子。我們需要
- 從每個(gè)請(qǐng)求中獲取圖像并對(duì)其進(jìn)行預(yù)處理
- 從模型中得到預(yù)測(cè)
- 發(fā)送回一個(gè)響應(yīng)
預(yù)處理
.preprocess
函數(shù)接受請(qǐng)求數(shù)組。假設(shè)我們正在向服務(wù)器發(fā)送一個(gè)圖像,可以從請(qǐng)求的data
或body
字段訪問(wèn)序列化的圖像。因此,我們可以遍歷所有請(qǐng)求并單獨(dú)預(yù)處理每個(gè)圖像。完整的代碼如下所示。
預(yù)處理每個(gè)請(qǐng)求中的每個(gè)圖像
self.transform
是我們的預(yù)處理變換,沒(méi)什么花哨的。對(duì)于在ImageNet上訓(xùn)練的模型來(lái)說(shuō),這是一個(gè)經(jīng)典的預(yù)處理步驟。
我們的transform
在我們對(duì)每個(gè)請(qǐng)求中的每個(gè)圖像進(jìn)行預(yù)處理之后,我們將它們連接起來(lái)創(chuàng)建一個(gè)pytorch張量。
推理
在模型上進(jìn)行推理
這一步很簡(jiǎn)單,我們從 .preprocess
得到張量。然后對(duì)每幅圖像提取預(yù)測(cè)結(jié)果。
后處理
現(xiàn)在我們有了對(duì)每個(gè)圖像的預(yù)測(cè),我們需要向客戶返回一些內(nèi)容。Torchserve總是返回一個(gè)數(shù)組。BaseHandler
也會(huì)自動(dòng)打開一個(gè).json
文件帶有index -> label
的映射(稍后我們將看到如何提供這樣的文件),并將其存儲(chǔ)self.mapping
中。我們可以為每個(gè)預(yù)測(cè)返回一個(gè)字典數(shù)組,其中包含label
和index
的類別。
把所有的東西打包到一起,我們的handler是這樣的:
因?yàn)樗械奶幚磉壿嫸挤庋b在一個(gè)類中,所以你可以輕松地對(duì)它進(jìn)行單元測(cè)試!
導(dǎo)出你的模型
官方文檔:https://github.com/pytorch/serve/tree/master/model-archiver#creating-a-model-archive
Torchserve 需要提供一個(gè).mar
文件,簡(jiǎn)而言之,該文件只是把你的模型和所有依賴打包在一起。要進(jìn)行打包,首先需要導(dǎo)出經(jīng)過(guò)訓(xùn)練的模型。
導(dǎo)出模型
有三種方法可以導(dǎo)出torchserve的模型。到目前為止,我發(fā)現(xiàn)的最好的方法是trace
模型并存儲(chǔ)結(jié)果。這樣我們就不需要向torchserve添加任何額外的文件。
讓我們來(lái)看一個(gè)例子,我們將部署一個(gè)經(jīng)過(guò)充分訓(xùn)練的ResNet34模型。
按照順序,我們:
- 加載模型
- 創(chuàng)建一個(gè)dummy輸入
- 使用
torch.jit.trace
來(lái)trace模型的輸入 - 保存模型
創(chuàng)建 .mar 文件
官方文檔:https://github.com/pytorch/serve/blob/master/model-archiver/README.md
你需要安裝torch-model-archiver
git clone https://github.com/pytorch/serve.git cd serve/model-archiver pip install .
然后,我們準(zhǔn)備好通過(guò)使用下面的命令來(lái)創(chuàng)建.mar
文件。
torch-model-archiver --model-name resnet34 \--version 1.0 \--serialized-file resnet34.pt \--extra-files ./index_to_name.json,./MyHandler.py \--handler my_handler.py \--export-path model-store -f
按照順序。變量--model-name
定義了模型的最終名稱。這是非常重要的,因?yàn)樗鼘⑹莈ndpoint的名稱空間,負(fù)責(zé)進(jìn)行預(yù)測(cè)。你還可以指定一個(gè)--version
。--serialized-file
指向我們之前創(chuàng)建的存儲(chǔ)的 .pt
模型。--handler
是一個(gè)python文件,我們?cè)谄渲姓{(diào)用我們的自定義handler。一般來(lái)說(shuō),是這樣的:
my_handler.py
它暴露了一個(gè)handle
函數(shù),我們從該函數(shù)調(diào)用自定義handler中的方法。你可以使用默認(rèn)名稱來(lái)使用默認(rèn)handler(例如,--handler image_classifier
)。
在--extra-files
中,你需要將路徑傳遞給你的handlers正在使用的所有文件。在本例中,我們必須向.json
文件中添加路徑。使用所有人類可讀標(biāo)簽名稱,并在MyHandler.py
中定義每個(gè)類別。
如果你傳遞一個(gè)index_to_name.json
文件,它將自動(dòng)加載到handler ,并通過(guò)self.mapping
訪問(wèn)。
--export-path
就是 .mar
存放的地方,我還添加了-f
來(lái)覆蓋原有的文件。
如果一切順利的話,你可以看到resnet34.mar
存放在./model-store
路徑中。
用模型進(jìn)行服務(wù)
這是一個(gè)簡(jiǎn)單的步驟,我們可以運(yùn)行帶有所有必需參數(shù)的torchserve docker容器。
docker run --rm -it \-p 3000:8080 -p 3001:8081 \-v $(pwd)/model-store:/home/model-server/model-store pytorch/torchserve:0.1-cpu \torchserve --start --model-store model-store --models resnet34=resnet34.mar
我將容器端口8080和8081分別綁定到3000和3001(8080/8081已經(jīng)在我的機(jī)器中使用)。然后,我從./model-store
創(chuàng)建一個(gè)volume。最后,我通過(guò)padding model-store
并通過(guò)key-value列表的方式指定模型的名稱來(lái)調(diào)用torchserve
。
這里,torchserve有一個(gè)endpoint /predictions/resnet34
,我們可以通過(guò)發(fā)送圖像來(lái)預(yù)測(cè)。這可以使用curl來(lái)實(shí)現(xiàn)。
curl -X POST http://127.0.0.1:3000/predictions/resnet34 -T inputs/kitten.jpg
kitten.jpg
回復(fù):
{ "label": "tiger_cat", "index": 282 }
工作正常!
總結(jié)
使用docker安裝torchserve
默認(rèn)以及自定義handlers
模型打包生成
使用docker提供模型服務(wù)到此這篇關(guān)于用PyTorch部署模型的文章就介紹到這了,更多相關(guān)PyTorch部署模型內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
git push 本地項(xiàng)目推送到遠(yuǎn)程分支的方法(git命令版)
這篇文章主要介紹了git push 本地項(xiàng)目推送到遠(yuǎn)程分支的方法(git命令版),需要的朋友可以參考下2020-09-09詳解git merge 與 git rebase的區(qū)別
這篇文章主要介紹了詳解git merge 與 git rebase的區(qū)別,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2020-07-07在VSCode中如何配置Python開發(fā)環(huán)境
VScode是一個(gè)相當(dāng)優(yōu)秀的IDE,具備開源、跨平臺(tái)、模塊化、插件豐富、啟動(dòng)時(shí)間快、顏值高、可高度定制等等優(yōu)秀的特質(zhì),所以用VScode來(lái)編寫Python,也是相當(dāng)?shù)暮糜玫?。所以,今天我們就?lái)講講,怎么在VScode上配置Python開發(fā)環(huán)境。2020-01-01老生常談?dòng)?jì)算機(jī)中的編碼問(wèn)題(必看篇)
下面小編就為大家?guī)?lái)一篇老生常談?dòng)?jì)算機(jī)中的編碼問(wèn)題(必看篇)。小編覺(jué)得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2017-07-07