pytorch實(shí)現(xiàn)保證每次運(yùn)行使用的隨機(jī)數(shù)都相同
其實(shí)在代碼的開(kāi)頭添加下面幾句話即可:
# 保證訓(xùn)練時(shí)獲取的隨機(jī)數(shù)都是一樣的 init_seed = 1 torch.manual_seed(init_seed) torch.cuda.manual_seed(init_seed) np.random.seed(init_seed) # 用于numpy的隨機(jī)數(shù)
torch.manual_seed(seed)
為了生成隨機(jī)數(shù)設(shè)置種子。返回一個(gè)torch.Generator對(duì)象
參數(shù):
seed (int) – 期望的種子數(shù)
torch.cuda.manual_seed(seed)
為當(dāng)前GPU生成隨機(jī)數(shù)設(shè)置種子。如果CUDA不可用,調(diào)用該方法也是安全的;在這種情況下,該調(diào)用就會(huì)被忽略
參數(shù):
seed (int) – 期望的種子數(shù)
⚠️如果你使用的是多GPU模型,就要調(diào)用manual_seed_all(seed).
以上這篇pytorch實(shí)現(xiàn)保證每次運(yùn)行使用的隨機(jī)數(shù)都相同就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
- PyTorch 隨機(jī)數(shù)生成占用 CPU 過(guò)高的解決方法
- Pytorch在dataloader類(lèi)中設(shè)置shuffle的隨機(jī)數(shù)種子方式
- pytorch隨機(jī)采樣操作SubsetRandomSampler()
- Pytorch生成隨機(jī)數(shù)Tensor的方法匯總
- 簡(jiǎn)述python&pytorch 隨機(jī)種子的實(shí)現(xiàn)
- PyTorch 如何設(shè)置隨機(jī)數(shù)種子使結(jié)果可復(fù)現(xiàn)
- pytorch通過(guò)訓(xùn)練結(jié)果的復(fù)現(xiàn)設(shè)置隨機(jī)種子
- 使用PyTorch實(shí)現(xiàn)隨機(jī)搜索策略
相關(guān)文章
Python腳本修改Maya ASCII文件路徑方法實(shí)現(xiàn)
本文主要介紹了Python腳本修改Maya ASCII文件路徑方法實(shí)現(xiàn),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2023-02-02詳解Django+Uwsgi+Nginx的生產(chǎn)環(huán)境部署
這篇文章主要介紹了Django + Uwsgi + Nginx 的生產(chǎn)環(huán)境部署,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2018-06-06最新Python?APScheduler?定時(shí)任務(wù)詳解
這篇文章主要介紹了Python使用apscheduler模塊設(shè)置定時(shí)任務(wù),APScheduler全稱(chēng)Advanced?Python?Scheduler?作用為在指定的時(shí)間規(guī)則執(zhí)行指定的作業(yè),本文對(duì)Python?APScheduler?定時(shí)任務(wù)相關(guān)知識(shí)介紹的非常詳細(xì),需要的朋友參考下2022-05-05python3使用libpcap庫(kù)進(jìn)行抓包及數(shù)據(jù)處理的操作方法
這篇文章主要介紹了python3使用libpcap庫(kù)進(jìn)行抓包及數(shù)據(jù)處理,需要的朋友可以參考下2022-10-10python實(shí)現(xiàn)不同數(shù)據(jù)庫(kù)間數(shù)據(jù)同步功能
這篇文章主要介紹了python實(shí)現(xiàn)不同數(shù)據(jù)庫(kù)間數(shù)據(jù)同步功能,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2021-02-02