Python keras.metrics源代碼分析
前言
metrics用于判斷模型性能。度量函數(shù)類(lèi)似于損失函數(shù),只是度量的結(jié)果不用于訓(xùn)練模型??梢允褂萌魏螕p失函數(shù)作為度量(如logloss等)。在訓(xùn)練期間監(jiān)控metrics的最佳方式是通過(guò)Tensorboard。
官方提供的metrics最重要的概念就是有狀態(tài)(stateful)變量,通過(guò)更新?tīng)顟B(tài)變量,可以不斷累積統(tǒng)計(jì)數(shù)據(jù),并可以隨時(shí)輸出狀態(tài)變量的計(jì)算結(jié)果。這是區(qū)別于losses的重要特性,losses是無(wú)狀態(tài)的(stateless)。
本文部分內(nèi)容參考了:
代碼運(yùn)行環(huán)境為:tf.__version__==2.6.2 。
metrics原理解析(以metrics.Mean為例)
metrics是有狀態(tài)的(stateful),即Metric 實(shí)例會(huì)存儲(chǔ)、記錄和返回已經(jīng)累積的結(jié)果,有助于未來(lái)事務(wù)的信息。下面以tf.keras.metrics.Mean()
為例進(jìn)行解釋?zhuān)?/p>
創(chuàng)建tf.keras.metrics.Mean
的實(shí)例:
m = tf.keras.metrics.Mean()
通過(guò)help(m)
可以看到MRO為:
Mean
Reduce
Metric
keras.engine.base_layer.Layer
...
可見(jiàn)Metric和Mean是 keras.layers.Layer
的子類(lèi)。相比于類(lèi)Layer,其子類(lèi)Mean多出了幾個(gè)方法:
- result: 計(jì)算并返回標(biāo)量度量值(tensor形式)或標(biāo)量字典,即狀態(tài)變量簡(jiǎn)單地計(jì)算度量值。例如,
m.result()
,就是計(jì)算均值并返回。 - total: 狀態(tài)變量
m
目前累積的數(shù)字總和 - count: 狀態(tài)變量
m
目前累積的數(shù)字個(gè)數(shù)(m.total/m.count
就是m.result()
的返回值) - update_state: 累積統(tǒng)計(jì)數(shù)字用于計(jì)算指標(biāo)。每次調(diào)用
m.update_state
都會(huì)更新m.total
和m.count
; - reset_state: 將狀態(tài)變量重置到初始化狀態(tài);
- reset_states: 等價(jià)于reset_state,參見(jiàn)keras源代碼metrics.py L355
- reduction: 目前來(lái)看,沒(méi)什么用。
這也決定了Mean的特殊性質(zhì)。其使用參見(jiàn)如下代碼:
# 創(chuàng)建狀態(tài)變量m,由于m未剛初始化, # 所以total,count和result()均為0 m = tf.keras.metrics.Mean() print("m.total:",m.total) print("m.count:",m.count) print("m.result():",m.result())
"""
# 輸出:
m.total: <tf.Variable 'total:0' shape=() dtype=float32, numpy=0.0>
m.count: <tf.Variable 'count:0' shape=() dtype=float32, numpy=0.0>
m.result(): tf.Tensor(0.0, shape=(), dtype=float32)
"""
# 更新?tīng)顟B(tài)變量,可以看到total累加了總和, # count累積了個(gè)數(shù),result()返回total/count m.update_state([1,2,3]) print("m.total:",m.total) print("m.count:",m.count) print("m.result():",m.result())
"""
# 輸出:
m.total: <tf.Variable 'total:0' shape=() dtype=float32, numpy=6.0>
m.count: <tf.Variable 'count:0' shape=() dtype=float32, numpy=3.0>
m.result(): tf.Tensor(2.0, shape=(), dtype=float32)
"""
# 重置狀態(tài)變量, 重置到初始化狀態(tài) m.reset_state() print("m.total:",m.total) print("m.count:",m.count) print("m.result():",m.result())
"""
# 輸出:
m.total: <tf.Variable 'total:0' shape=() dtype=float32, numpy=0.0>
m.count: <tf.Variable 'count:0' shape=() dtype=float32, numpy=0.0>
m.result(): tf.Tensor(0.0, shape=(), dtype=float32)
"""
創(chuàng)建自定義metrics
創(chuàng)建無(wú)狀態(tài) metrics
與損失函數(shù)類(lèi)似,任何帶有類(lèi)似于metric_fn(y_true, y_pred)
、返回?fù)p失數(shù)組(如輸入一個(gè)batch的數(shù)據(jù),會(huì)返回一個(gè)batch的損失標(biāo)量)的函數(shù),都可以作為metric傳遞給compile()
:
import tensorflow as tf import numpy as np inputs = tf.keras.Input(shape=(3,)) x = tf.keras.layers.Dense(4, activation=tf.nn.relu)(inputs) outputs = tf.keras.layers.Dense(1, activation=tf.nn.softmax)(x) model1 = tf.keras.Model(inputs=inputs, outputs=outputs) def my_metric_fn(y_true, y_pred): squared_difference = tf.square(y_true - y_pred) return tf.reduce_mean(squared_difference, axis=-1) # shape=(None,) model1.compile(optimizer='adam', loss='mse', metrics=[my_metric_fn]) x = np.random.random((100, 3)) y = np.random.random((100, 1)) model1.fit(x, y, epochs=3)
輸出:
Epoch 1/3
4/4 [==============================] - 0s 667us/step - loss: 0.0971 - my_metric_fn: 0.0971
Epoch 2/3
4/4 [==============================] - 0s 667us/step - loss: 0.0958 - my_metric_fn: 0.0958
Epoch 3/3
4/4 [==============================] - 0s 1ms/step - loss: 0.0946 - my_metric_fn: 0.0946
注意,因?yàn)楸纠齽?chuàng)建的是無(wú)狀態(tài)的度量,所以上面跟蹤的度量值(my_metric_fn后面的值)是每個(gè)batch的平均度量值,并不是一個(gè)epoch(完整數(shù)據(jù)集)的累積值。(這一點(diǎn)需要理解,這也是為什么要使用有狀態(tài)度量的原因?。?/p>
值得一提的是,如果上述代碼使用
model1.compile(optimizer='adam', loss='mse', metrics=["mse"])
進(jìn)行compile,則輸出的結(jié)果是累積的,在每個(gè)epoch結(jié)束時(shí)的結(jié)果就是整個(gè)數(shù)據(jù)集的結(jié)果,因?yàn)?code>metrics=["mse"]是直接調(diào)用了標(biāo)準(zhǔn)庫(kù)的有狀態(tài)度量。
通過(guò)繼承Metric創(chuàng)建有狀態(tài)metrics
如果想查看整個(gè)數(shù)據(jù)集的指標(biāo),就需要傳入有狀態(tài)的metrics,這樣就會(huì)在一個(gè)epoch內(nèi)累加,并在epoch結(jié)束時(shí)輸出整個(gè)數(shù)據(jù)集的度量值。
創(chuàng)建有狀態(tài)度量指標(biāo),需要?jiǎng)?chuàng)建Metric的子類(lèi),它可以跨batch維護(hù)狀態(tài),步驟如下:
- 在
__init__
中創(chuàng)建狀態(tài)變量(state variables) - 更新
update_state()
中y_true
和y_pred
的變量 - 在
result()
中返回標(biāo)量度量結(jié)果 - 在
reset_states()
中清除狀態(tài)
class BinaryTruePositives(tf.keras.metrics.Metric): def __init__(self, name='binary_true_positives', **kwargs): super(BinaryTruePositives, self).__init__(name=name, **kwargs) self.true_positives = self.add_weight(name='tp', initializer='zeros') def update_state(self, y_true, y_pred, sample_weight=None): y_true = tf.cast(y_true, tf.bool) y_pred = tf.cast(y_pred, tf.bool) values = tf.logical_and(tf.equal(y_true, True), tf.equal(y_pred, True)) values = tf.cast(values, self.dtype) if sample_weight is not None: sample_weight = tf.cast(sample_weight, self.dtype) values = tf.multiply(values, sample_weight) self.true_positives.assign_add(tf.reduce_sum(values)) def result(self): return self.true_positives def reset_states(self): self.true_positives.assign(0) m = BinaryTruePositives() m.update_state([0, 1, 1, 1], [0, 1, 0, 0]) print('Intermediate result:', float(m.result())) m.update_state([1, 1, 1, 1], [0, 1, 1, 0]) print('Final result:', float(m.result()))
add_metric()方法
add_metric
方法是 tf.keras.layers.Layer
類(lèi)添加的方法,Layer的父類(lèi)tf.Module
并沒(méi)有這個(gè)方法,因此在編寫(xiě)Layer子類(lèi)如包括自定義層、官方提供的層(Dense)或模型(tf.keras.Model也是Layer的子類(lèi))時(shí),可以使用add_metric()
來(lái)與層相關(guān)的統(tǒng)計(jì)量。比如,將類(lèi)似Dense的自定義層的激活平均值記錄為metric。可以執(zhí)行以下操作:
class DenseLike(Layer): """y = w.x + b""" ... def call(self, inputs): output = tf.matmul(inputs, self.w) + self.b self.add_metric(tf.reduce_mean(output), aggregation='mean', name='activation_mean') return output
將在名稱(chēng)為activation_mean的度量下跟蹤output,跟蹤的值為每個(gè)批次度量值的平均值。
更詳細(xì)的信息,參閱官方文檔The base Layer class - add_metric method。
參考
到此這篇關(guān)于Python keras.metrics源代碼分析的文章就介紹到這了,更多相關(guān)Python keras.metrics內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Python統(tǒng)計(jì)詞頻并繪制圖片(附完整代碼)
這篇文章主要介紹了Python統(tǒng)計(jì)詞頻并繪制圖片(附完整代碼)本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2021-08-08解決django前后端分離csrf驗(yàn)證的問(wèn)題
今天小編就為大家分享一篇解決django前后端分離csrf驗(yàn)證的問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-02-02Python Pexpect庫(kù)的簡(jiǎn)單使用方法
這篇文章主要介紹了Python Pexpect庫(kù)的簡(jiǎn)單使用方法,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2019-01-01Python數(shù)據(jù)處理利器Slice函數(shù)用法詳解
這篇文章主要給大家介紹了關(guān)于Python數(shù)據(jù)處理利器Slice函數(shù)用法的相關(guān)資料,slice函數(shù)是Python中的一個(gè)內(nèi)置函數(shù),用于對(duì)序列進(jìn)行切片操作,文中通過(guò)代碼介紹的非常詳細(xì),需要的朋友可以參考下2024-03-03Django 登陸驗(yàn)證碼和中間件的實(shí)現(xiàn)
這篇文章主要介紹了Django 登陸驗(yàn)證碼和中間件的實(shí)現(xiàn),小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2018-08-08基于Python實(shí)現(xiàn)給喜歡的主播自動(dòng)發(fā)彈幕
這篇文章主要介紹了python如何實(shí)現(xiàn)給喜歡的主播自動(dòng)發(fā)彈幕的功能,文中的示例代碼對(duì)我們學(xué)習(xí)Python有一定的幫助,感興趣的朋友可以了解下2021-12-12Python數(shù)據(jù)處理pandas讀寫(xiě)操作IO工具CSV解析
這篇文章主要為大家介紹了Python?pandas數(shù)據(jù)讀寫(xiě)操作IO工具之CSV使用示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2022-06-06django中上傳圖片分頁(yè)三級(jí)聯(lián)動(dòng)效果的實(shí)現(xiàn)代碼
這篇文章主要介紹了django中上傳圖片分頁(yè)三級(jí)聯(lián)動(dòng)效果的實(shí)現(xiàn)代碼,非常不錯(cuò),具有一定的參考借鑒價(jià)值,需要的朋友參考下吧2019-08-08對(duì)python中的pop函數(shù)和append函數(shù)詳解
今天小編就為大家分享一篇對(duì)python中的pop函數(shù)和append函數(shù)詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-05-05