TensorFlow隱藏操作探索(張量操作和定制模型算法)
1.張量和操作
tensorflow對張量的操作實際上和numpy差不多,不夠有所差距,numpy的數(shù)據(jù)可以隨時被修改,但是tensorflow的數(shù)據(jù)要分情況。
(1).使用tf.Constant()
a = tf.Constant([[1,2,3],[4,5,6]])
這個矩陣就是2*3的矩陣,但是它無法被修改,只能讀取。
除了不能修改,其實和numpy的使用方法
比如查看它的大小也可以用:a.shape
索引方式也一樣,這里不做過得描述
(2).tensorflow提供的數(shù)據(jù)操作函數(shù)
比如加法: a + 10 可以使用函數(shù) tf.add(a, 10);
矩陣的乘法為tf.matmul(),它提供的函數(shù)和numpy都差不多,但是有些不一樣
比如求和.tf.reduce_sum(),求均值為tf.reduce_mean(),求最大值tf.reduce_max();
numpy也可以用于tensorflow中,轉(zhuǎn)換為張量。
(3)類型轉(zhuǎn)換
tensorflow中有個很麻煩的東西,整形+浮點型會失敗,float32和float64相加也會失敗,它不會自動執(zhí)行類型轉(zhuǎn)換,需要你手動操作。
tf.cast()可以用來進行轉(zhuǎn)換,比如把a轉(zhuǎn)為float64類型的
tf.cast(a, tf.float64)
(4).變量
tf.Constant無法被改變,固定好深度學(xué)習(xí)的參數(shù)后,可以使用這個類型的變量,但是如果需要對它進行訓(xùn)練,則必須要使用tf.Variable
我們對tf.Variable的修改也需要使用特定的函數(shù)assign
a[0,0].assign(10)
這樣a的第一個值就變?yōu)榱?0,這個就相當于a[0,0] = 10
麻煩就是這個啦,必須通過相應(yīng)的函數(shù)來操作;
(5).其他數(shù)據(jù)結(jié)構(gòu)
tensorflow還有其他數(shù)據(jù)結(jié)構(gòu),比如稀疏張量(tf.SparseTensor),張量數(shù)組(tf.TensorArrray),不規(guī)則張量(tf.RaggedTensor),字符串張量(tf.string)等等
2.定制模型和算法
(1)自定義損失函數(shù)
比如自定義一個Huber
def huber_fn(y_true, y_pred):`
error = tf.abs(y_true - y_pred);
is_small_error = tf.abs(error) < 1#門限設(shè)置為1
squared_loss = tf.abs(error)-0.5
return tf.where(is_small_error, squared_loss, linear_loss)可以在Keras模型中使用這個函數(shù)
model.compile(loss=huber_fn, opitimizer= 'adam');
(2)保存和加載自定義組件的模型
keras會保存函數(shù)的名字,每次加載的適合需要提供一個字典,將函數(shù)名稱映射到實際函數(shù)。一般而言,當加載包含自定義對象的模式時,需要將名稱映射到對象。
model = keras.models.load_model("model.h5", custom_objects = {'huber_fn':huber_fn})
如果需要更為靈活的函數(shù),設(shè)定上面函數(shù)的閾值,不僅僅等于1
def more_freedom_huber(limit = 1.0):
def huber_fn(y_true, y_pred):
error = tf.abs(y_true - y_pred);
is_small_error = tf.abs(error) < 1#門限設(shè)置為1
squared_loss = tf.abs(error)-0.5
return tf.where(is_small_error, squared_loss, linear_loss)
return huber_fn
model = keras.models.load_model("model.h5", custom_objects = {'huber_fn':more_freedom_huber(2.0)})還可以通過繼承keras.losses.Loss類的子類,然后實現(xiàn)get_config()方法來解決問題
比如自定義激活函數(shù),初始化方法,正則化和約束。
如果函數(shù)需要和模型一起保存,必須繼承相應(yīng)的對象,比如keras.regularizers.Regularizer
以上就是TensorFlow隱藏操作探索(張量操作和定制模型算法)的詳細內(nèi)容,更多關(guān)于TensorFlow張量定制模型算法的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
如何解決Python讀取圖片路徑存在轉(zhuǎn)義字符的問題
這篇文章主要為大家詳細介紹了如何解決Python讀取圖片路徑時存在轉(zhuǎn)義字符的問題,文中的示例代碼講解詳細,感興趣的小伙伴可以學(xué)習(xí)一下2023-07-07
OpenCV 形態(tài)學(xué)變換的實現(xiàn)示例
本文主要介紹了使用OpenCV進行常見的形態(tài)學(xué)變換操作,這些操作在圖像預(yù)處理、特征提取等任務(wù)中非常有用,具有一定的參考價值,感興趣的可以了解一下2025-07-07
在Tensorflow中查看權(quán)重的實現(xiàn)
今天小編就為大家分享一篇在Tensorflow中查看權(quán)重的實現(xiàn),具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-01-01
Python函數(shù)中的函數(shù)(閉包)用法實例
這篇文章主要介紹了Python函數(shù)中的函數(shù)(閉包)用法,結(jié)合實例形式分析了Python閉包的定義與使用技巧,需要的朋友可以參考下2016-03-03

