tensorflow2.0與tensorflow1.0的性能區(qū)別介紹
從某種意義講,tensorflow這個(gè)項(xiàng)目已經(jīng)失敗了,要不了幾年以后,江湖上再無tensorflow
因?yàn)閠ensorflow2.0 和tensorflow1.0 從本質(zhì)上講就是兩個(gè)項(xiàng)目,1.0的靜態(tài)圖有他的優(yōu)勢(shì),比如性能方面,但是debug不方便,2.0的動(dòng)態(tài)圖就是在模仿pytorch,但是畫虎不成反類犬.
為了對(duì)比1.0 與2.0
1. pip install tensorflow==2.0.0a0
2. 為了控制變量我把mnist保存到本地的mongodb
3. 兩種網(wǎng)絡(luò)結(jié)構(gòu)是一樣的
ipython
import mnist_data mnist_data.save_mnist_mongodb()
0 100 200 300 400 500 ...
Step 1600 : loss 0.597398758 ; accuracy 0.906712472 Step 1700 : loss 0.0526806675 ; accuracy 0.90900588 Step 1800 : loss 0.212036133 ; accuracy 0.911422193 Step 1900 : loss 0.245924264 ; accuracy 0.913889468 Step 2000 : loss 0.0638188794 ; accuracy 0.915765 20.71102285385132 Final step 2000 : loss tf.Tensor(0.06381888, shape=(), dtype=float32) ; accuracy tf.Tensor(0.915765, shape=(), dtype=float32)
tensorflow2.0 耗時(shí)20.7秒
pip install tensorflow==1.13.1
step 1700, training accuracy 0.960 step 1800, training accuracy 0.900 step 1900, training accuracy 0.930 12.46434211730957 test accuracy 0.942
tensorflow2.0 耗時(shí)12.46秒,所以在用cpu 做訓(xùn)練時(shí),相同的網(wǎng)絡(luò)結(jié)構(gòu),相同的數(shù)據(jù)集合,tensorflow2.0比tensorflow1.0慢60%,tensorflow 靜態(tài)圖有非常明顯的速度優(yōu)勢(shì).
這是 tensorflow2.0 在訓(xùn)練時(shí)的cpu占用32.3%
這是 tensorflow1.0 在訓(xùn)練時(shí)的cpu占用63%,這也是tensorflow1.0 的優(yōu)勢(shì),更能發(fā)揮硬件的優(yōu)勢(shì)
以上這篇tensorflow2.0與tensorflow1.0的性能區(qū)別介紹就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
python?pycharm安裝第三方包失敗(使用pip安裝失敗)的解決方案
這篇文章主要給大家介紹了關(guān)于python?pycharm安裝第三方包失敗(使用pip安裝失敗)的解決方案,文中將可能遇到的幾種情況都進(jìn)行了分析并給出了詳細(xì)的解決方案,需要的朋友可以參考下2023-11-11詳解Python中的魔法函數(shù)與量子計(jì)算模擬
這篇文章主要介紹了python的魔法函數(shù)和量子計(jì)算模擬,我們可以通過一個(gè)實(shí)際的案例來先審視一下這兩個(gè)需求是如何被結(jié)合起來的,希望對(duì)大家有所幫助2023-03-03python中ndarray數(shù)組的索引和切片的使用
本文主要介紹了python中ndarray數(shù)組的索引和切片的使用,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2022-07-07