PyTorch中的一些函數(shù),例如 ReLU、LeakyReLU 等,均有inplace參數(shù),可以對(duì)傳入Tensor進(jìn)行就地修改,減少多余顯存的占用。 2. 加載、存儲(chǔ)等能用CPU就絕不用GPU GPU存儲(chǔ)空間寶貴,我們可以選擇使用CPU做一些可行的分擔(dān),雖然數(shù)據(jù)傳輸會(huì)浪費(fèi)一些時(shí)間,但是以時(shí)間換空間,可以視情況而定,在模型加載中,如 torch.load_state_dict...
www.dbjr.com.cn/python/305576r...htm 2025-6-6