淺談tensorflow與pytorch的相互轉(zhuǎn)換
本文以一段代碼為例,簡(jiǎn)單介紹一下tensorflow與pytorch的相互轉(zhuǎn)換(主要是tensorflow轉(zhuǎn)pytorch),可能介紹的沒有那么詳細(xì),僅供參考。
由于本人只熟悉pytorch,而對(duì)tensorflow一知半解,而代碼經(jīng)常遇到tensorflow,而我希望使用pytorch,因此簡(jiǎn)單介紹一下tensorflow轉(zhuǎn)pytorch,可能存在諸多錯(cuò)誤,希望輕噴~
1.變量預(yù)定義
在TensorFlow的世界里,變量的定義和初始化是分開的。
tensorflow中一般都是在開頭預(yù)定義變量,聲明其數(shù)據(jù)類型、形狀等,在執(zhí)行的時(shí)候再賦具體的值,如下圖所示,而pytorch用到時(shí)才會(huì)定義,定義和變量初始化是合在一起的。
2.創(chuàng)建變量并初始化
tensorflow中利用tf.Variable創(chuàng)建變量并進(jìn)行初始化,而pytorch中使用torch.tensor創(chuàng)建變量并進(jìn)行初始化,如下圖所示。
3.語句執(zhí)行
在TensorFlow的世界里,變量的定義和初始化是分開的,所有關(guān)于圖變量的賦值和計(jì)算都要通過tf.Session的run來進(jìn)行。
sess.run([G_solver, G_loss_temp, MSE_loss], feed_dict = {X: X_mb, M: M_mb, H: H_mb})
而在pytorch中,并不需要通過run進(jìn)行,賦值完了直接計(jì)算即可。
4.tensor
pytorch運(yùn)算時(shí)要?jiǎng)?chuàng)建完的numpy數(shù)組轉(zhuǎn)為tensor,如下:
if use_gpu is True: X_mb = torch.tensor(X_mb, device="cuda") M_mb = torch.tensor(M_mb, device="cuda") H_mb = torch.tensor(H_mb, device="cuda") else: X_mb = torch.tensor(X_mb) M_mb = torch.tensor(M_mb) H_mb = torch.tensor(H_mb)
最后運(yùn)行完還要將tensor數(shù)據(jù)類型轉(zhuǎn)換回numpy數(shù)組:
if use_gpu is True: imputed_data=imputed_data.cpu().detach().numpy() else: imputed_data=imputed_data.detach().numpy()
而tensorflow中不需要這種操作。
5.其他函數(shù)
在tensorflow中包含諸多函數(shù)是pytorch中沒有的,但是都可以在其他庫中找到類似,具體如下表所示。
tensorflow中函數(shù) | pytorch中代替(所在庫) | 參數(shù)區(qū)別 |
---|---|---|
tf.sqrt | np.sqrt(numpy) | 完全相同 |
tf.random_normal | np.random.normal(numpy) | tf.random_normal(shape = size, stddev = xavier_stddev) np.random.normal(size = size, scale = xavier_stddev) |
tf.concat | torch.cat(torch) | inputs = tf.concat(values = [x, m], axis = 1) inputs = torch.cat(dim=1, tensors=[x, m]) |
tf.nn.relu | F.relu(torch.nn.functional) | 完全相同 |
tf.nn.sigmoid | torch.sigmoid(torch) | 完全相同 |
tf.matmul | torch.matmul(torch) | 完全相同 |
tf.reduce_mean | torch.mean(torch) | 完全相同 |
tf.log | torch.log(torch) | 完全相同 |
tf.zeros | np.zeros | 完全相同 |
tf.train.AdamOptimizer | torch.optim.Adam(torch) | optimizer_D = tf.train.AdamOptimizer().minimize(D_loss, var_list=theta_D) optimizer_D = torch.optim.Adam(params=theta_D) |
到此這篇關(guān)于淺談tensorflow與pytorch的相互轉(zhuǎn)換的文章就介紹到這了,更多相關(guān)tensorflow與pytorch的相互轉(zhuǎn)換內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
pytorch常用函數(shù)定義及resnet模型修改實(shí)例
這篇文章主要為大家介紹了pytorch常用函數(shù)定義及resnet模型修改實(shí)例,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2022-06-06在Python中封裝GObject模塊進(jìn)行圖形化程序編程的教程
這篇文章主要介紹了在Python中封裝GObject模塊進(jìn)行圖形化程序編程的教程,本文來自于IBM官方網(wǎng)站技術(shù)文檔,需要的朋友可以參考下2015-04-04詳解Django自定義圖片和文件上傳路徑(upload_to)的2種方式
這篇文章主要介紹了詳解Django自定義圖片和文件上傳路徑(upload_to)的2種方式,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-12-12Python機(jī)器學(xué)習(xí)應(yīng)用之基于LightGBM的分類預(yù)測(cè)篇解讀
這篇文章我們繼續(xù)學(xué)習(xí)一下GBDT模型的另一個(gè)進(jìn)化版本:LightGBM,LigthGBM是boosting集合模型中的新進(jìn)成員,由微軟提供,它和XGBoost一樣是對(duì)GBDT的高效實(shí)現(xiàn),原理上它和GBDT及XGBoost類似,都采用損失函數(shù)的負(fù)梯度作為當(dāng)前決策樹的殘差近似值,去擬合新的決策樹2022-01-01pandas按條件篩選數(shù)據(jù)的實(shí)現(xiàn)
這篇文章主要介紹了pandas按條件篩選數(shù)據(jù)的實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2021-02-02Python shutil模塊實(shí)現(xiàn)文件的裁剪、壓縮與解壓縮的方法
這篇文章主要介紹了Python shutil模塊實(shí)現(xiàn)文件的裁剪、壓縮與解壓縮的方法,本文通過實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2023-01-01Django 1.10以上版本 url 配置注意事項(xiàng)詳解
這篇文章主要介紹了Django 1.10以上版本 url 配置注意事項(xiàng)詳解,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-08-08