如何使用C#將Tensorflow訓(xùn)練的.pb文件用在生產(chǎn)環(huán)境詳解
前言
TensorFlow是Google開(kāi)源的一款人工智能學(xué)習(xí)系統(tǒng)。為什么叫這個(gè)名字呢?Tensor的意思是張量,代表N維數(shù)組;Flow的意思是流,代表基于數(shù)據(jù)流圖的計(jì)算。把N維數(shù)字從流圖的一端流動(dòng)到另一端的過(guò)程,就是人工智能神經(jīng)網(wǎng)絡(luò)進(jìn)行分析和處理的過(guò)程。
訓(xùn)練了很久的Tf模型,終于要到生產(chǎn)環(huán)境中去考研一番了。今天花費(fèi)了一些時(shí)間去研究tf的模型如何在生產(chǎn)環(huán)境中去使用。大概整理了這些方法。
繼續(xù)使用分步驟保存了的ckpt文件
這個(gè)貌似脫離不了tensorflow框架,而且生成的ckpt文件比較大,發(fā)布到生產(chǎn)環(huán)境的時(shí)候,還得把python的算法文件一起搞上去,如何和其他程序交互,可能還得自己去寫(xiě)服務(wù)。估計(jì)很少有人這么做,貌似性能也很一般。
使用tensorflow Serving
tf Serving貌似是大家都比較推崇的方法。需要編譯tfServing,然后把模型導(dǎo)出來(lái)。直接執(zhí)行tf Serving的進(jìn)程,就可以對(duì)外提供服務(wù)了。具體調(diào)用的時(shí)候,還得自己寫(xiě)客戶(hù)端,使用人gRPC去調(diào)用Serving,然后再對(duì)外提供服務(wù),聽(tīng)上去比較麻煩。而且我今天沒(méi)太多的時(shí)間去研究gRPC,網(wǎng)絡(luò)上關(guān)于客戶(hù)端很多都是用python寫(xiě)的,我感覺(jué)自己的python水平比較菜,沒(méi)信心能寫(xiě)好。所以這個(gè)方式就先沒(méi)研究。
生產(chǎn).pb文件,然后寫(xiě)程序去調(diào)用.pb文件
生成了.pb文件以后,就可以被程序去直接調(diào)用,傳入?yún)?shù),然后就可以傳出來(lái)參數(shù),而且生成的.pb文件非常的小。而我又有比較豐富的.net開(kāi)發(fā)經(jīng)驗(yàn)。在想,是否可以用C#來(lái)解析.pb文件,然后做一個(gè).net core的對(duì)外服務(wù)的API,這樣貌似更加高效,關(guān)鍵是自己熟悉這款的開(kāi)發(fā),不用花費(fèi)太多的時(shí)間去摸索。、
具體的思路
使用.net下面的TensorFlow框架tensorflowSharp(貌似還是沒(méi)脫離了框架).去調(diào)用pb文件,然后做成.net core web API 對(duì)外提供服務(wù)。
具體的實(shí)現(xiàn)
直接上代碼,非常簡(jiǎn)單,本身設(shè)計(jì)到tensorflowsharp的地方非常的少
var graph = new TFGraph(); //重點(diǎn)是下面的這句,把訓(xùn)練好的pb文件給讀出來(lái)字節(jié),然后導(dǎo)入 var model = File.ReadAllBytes(model_file); graph.Import(model); Console.WriteLine("請(qǐng)輸入一個(gè)圖片的地址"); var src = Console.ReadLine(); var tensor = ImageUtil.CreateTensorFromImageFile(src); using (var sess = new TFSession(graph)) { var runner = sess.GetRunner(); runner.AddInput(graph["Cast_1"][0], tensor); var r = runner.Run(graph.softmax(graph["softmax_linear/softmax_linear"][0])); var v = (float[,])r.GetValue(); Console.WriteLine(v[0,0]); Console.WriteLine(v[0, 1]); }
ImageUtil這個(gè)類(lèi)庫(kù)是tensorflowSharp官方的例子中一個(gè)把圖片轉(zhuǎn)成tensor的類(lèi)庫(kù),我直接copy過(guò)來(lái)了,根據(jù)我的網(wǎng)絡(luò),修改了幾個(gè)參數(shù)。
public static class ImageUtil { public static TFTensor CreateTensorFromImageFile(byte[] contents, TFDataType destinationDataType = TFDataType.Float) { var tensor = TFTensor.CreateString(contents); TFOutput input, output; // Construct a graph to normalize the image using (var graph = ConstructGraphToNormalizeImage(out input, out output, destinationDataType)) { // Execute that graph to normalize this one image using (var session = new TFSession(graph)) { var normalized = session.Run( inputs: new[] { input }, inputValues: new[] { tensor }, outputs: new[] { output }); return normalized[0]; } } } // Convert the image in filename to a Tensor suitable as input to the Inception model. public static TFTensor CreateTensorFromImageFile(string file, TFDataType destinationDataType = TFDataType.Float) { var contents = File.ReadAllBytes(file); // DecodeJpeg uses a scalar String-valued tensor as input. var tensor = TFTensor.CreateString(contents); TFOutput input, output; // Construct a graph to normalize the image using (var graph = ConstructGraphToNormalizeImage(out input, out output, destinationDataType)) { // Execute that graph to normalize this one image using (var session = new TFSession(graph)) { var normalized = session.Run( inputs: new[] { input }, inputValues: new[] { tensor }, outputs: new[] { output }); return normalized[0]; } } } // The inception model takes as input the image described by a Tensor in a very // specific normalized format (a particular image size, shape of the input tensor, // normalized pixel values etc.). // // This function constructs a graph of TensorFlow operations which takes as // input a JPEG-encoded string and returns a tensor suitable as input to the // inception model. private static TFGraph ConstructGraphToNormalizeImage(out TFOutput input, out TFOutput output, TFDataType destinationDataType = TFDataType.Float) { // Some constants specific to the pre-trained model at: // https://storage.googleapis.com/download.tensorflow.org/models/inception5h.zip // // - The model was trained after with images scaled to 224x224 pixels. // - The colors, represented as R, G, B in 1-byte each were converted to // float using (value - Mean)/Scale. const int W = 128; const int H = 128; const float Mean = 0; const float Scale = 1f; var graph = new TFGraph(); input = graph.Placeholder(TFDataType.String); output = graph.Cast( graph.Div(x: graph.Sub(x: graph.ResizeBilinear(images: graph.ExpandDims(input: graph.Cast(graph.DecodeJpeg(contents: input, channels: 3), DstT: TFDataType.Float), dim: graph.Const(0, "make_batch")), size: graph.Const(new int[] { W, H }, "size")), y: graph.Const(Mean, "mean")), y: graph.Const(Scale, "scale")), destinationDataType); return graph; } }
搞定
總結(jié)
以上就是這篇文章的全部?jī)?nèi)容了,希望本文的內(nèi)容對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,如果有疑問(wèn)大家可以留言交流,謝謝大家對(duì)腳本之家的支持。
- 詳解tensorflow訓(xùn)練自己的數(shù)據(jù)集實(shí)現(xiàn)CNN圖像分類(lèi)
- 詳解TensorFlow在windows上安裝與簡(jiǎn)單示例
- TensorFlow在MAC環(huán)境下的安裝及環(huán)境搭建
- 詳解Tensorflow數(shù)據(jù)讀取有三種方式(next_batch)
- windows環(huán)境下tensorflow安裝過(guò)程詳解
- 關(guān)于Tensorflow中的tf.train.batch函數(shù)的使用
- 解決Tensorflow安裝成功,但在導(dǎo)入時(shí)報(bào)錯(cuò)的問(wèn)題
- 初探TensorFLow從文件讀取圖片的四種方式
相關(guān)文章
C# 運(yùn)算符 ?、??、?: 各種問(wèn)號(hào)的用法和說(shuō)明
本文介紹C#中三種常見(jiàn)的問(wèn)號(hào)運(yùn)算符的使用方法,簡(jiǎn)單講解給大家,希望對(duì)大家有所幫助。2016-04-04C#中緊耦合Tight Coupling和松耦合Loose Coupling的實(shí)現(xiàn)
緊耦合和松耦合是描述模塊或組件之間耦合程度的兩個(gè)概念,本文主要介紹了C#中緊耦合Tight Coupling和松耦合Loose Coupling的實(shí)現(xiàn),具有一定的參考價(jià)值,感興趣的可以了解一下2024-01-01使用c#實(shí)現(xiàn)隨機(jī)數(shù)猜數(shù)游戲的示例代碼
這篇文章主要介紹了使用c#實(shí)現(xiàn)隨機(jī)數(shù)猜數(shù)游戲的示例代碼,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2020-09-09DevExpress GridControl實(shí)現(xiàn)根據(jù)RowIndex和VisibleColumnsIndex來(lái)獲取單元格
這篇文章主要介紹了DevExpress GridControl實(shí)現(xiàn)根據(jù)RowIndex和VisibleColumnsIndex來(lái)獲取單元格值,需要的朋友可以參考下2014-08-08C#對(duì)稱(chēng)加密(AES加密)每次生成的結(jié)果都不同的實(shí)現(xiàn)思路和代碼實(shí)例
這篇文章主要介紹了C#對(duì)稱(chēng)加密(AES加密)每次生成的結(jié)果都不同的實(shí)現(xiàn)思路和代碼實(shí)例,每次解密時(shí)從密文中截取前16位,這就是實(shí)現(xiàn)隨機(jī)的奧秘,本文同時(shí)給出了實(shí)現(xiàn)代碼,需要的朋友可以參考下2015-07-07