PyTorch中l(wèi)oading fbgemm.dll異常的解決辦法
一、安裝必備
1. window
學(xué)習(xí)或開發(fā)階段,我們通常在window環(huán)境下進(jìn)行,因此需滿足以下條件:
Windows 7 and greater;
Windows 10 or greater recommended;
Windows Server 2008 r2 and greater;
2. python
準(zhǔn)備一個python環(huán)境,需滿足以下條件:
Python 3.8-3.11(支持);
Python 2.x(不支持);
3. install pytorch
正式安裝pytorch執(zhí)行如下命令(默認(rèn)最新版):
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
安裝successful后,可看到如下界面(來自pycharm
):
二、異常情景
1. 請求GPT-2
博主拿GPT作為示例(來自官方),新建一個python文件并取名為hello_GPT2.py,目的是完成gpt2模型的調(diào)用,下面是源碼 :
from transformers import GPT2LMHeadModel, GPT2Tokenizer # 指定模型名稱 model_name = 'gpt2' # 加載模型和分詞器 tokenizer = GPT2Tokenizer.from_pretrained(model_name) model = GPT2LMHeadModel.from_pretrained(model_name) # 輸入文本 input_text = "Once upon a time" # 對輸入文本進(jìn)行分詞 inputs = tokenizer.encode(input_text, return_tensors='pt') # 生成文本 outputs = model.generate( inputs, max_length=100, # 生成文本的最大長度 num_return_sequences=1, # 生成序列的數(shù)量 temperature=0.7, # 溫度控制生成的多樣性,值越高,生成的文本越隨機(jī) top_k=50, # 控制生成的詞匯范圍,值越小,生成的文本越集中 top_p=0.9 # 采樣閾值,控制生成的文本多樣性 ) # 解碼生成的文本 generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True) print("生成的文本:") print(generated_text)
2. 異常Traceback
當(dāng)我們執(zhí)行上面的代碼時,極容易遇到以下異常:
Traceback (most recent call last): File "D:\projects\PycharmProjects\llm_openai_gpt\hello_GPT2.py", line 1, in <module> from transformers import GPT2LMHeadModel, GPT2Tokenizer File "D:\projects\PycharmProjects\llm_openai_gpt\.venv\Lib\site-packages\transformers\__init__.py", line 26, in <module> from . import dependency_versions_check File "D:\projects\PycharmProjects\llm_openai_gpt\.venv\Lib\site-packages\transformers\dependency_versions_check.py", line 16, in <module> from .utils.versions import require_version, require_version_core File "D:\projects\PycharmProjects\llm_openai_gpt\.venv\Lib\site-packages\transformers\utils\__init__.py", line 34, in <module> from .generic import ( File "D:\projects\PycharmProjects\llm_openai_gpt\.venv\Lib\site-packages\transformers\utils\generic.py", line 462, in <module> import torch.utils._pytree as _torch_pytree File "D:\projects\PycharmProjects\llm_openai_gpt\.venv\Lib\site-packages\torch\__init__.py", line 148, in <module> raise err OSError: [WinError 126] 找不到指定的模塊。 Error loading "D:\projects\PycharmProjects\llm_openai_gpt\.venv\Lib\site-packages\torch\lib\fbgemm.dll" or one of its dependencies.
關(guān)鍵之處:
OSError: [WinError 126] 找不到指定的模塊。Error loading "D:\projects\PycharmProjects\llm_openai_gpt\.venv\Lib\site-packages\torch\lib\fbgemm.dll" or one of its dependencies.
三、解決辦法
根據(jù)提示,是因為fbgemm.dll
缺少依賴,導(dǎo)致加載異常,所以直接辦法去找依賴文件,博主這里給出一個解決的辦法:
1. 下載libomp140.x86_64.dll文件
點擊 dllme.com后,可看到如下頁面:
點擊右下角,下載 libomp140.x86_64_x86-64.zip。
2. 存放位置
將zip解壓后,有一個文件:libomp140.x86_64.dll
,轉(zhuǎn)移至 Windows\System32 目錄下,如存在可覆蓋。
完成后,可順利排除該異常。
結(jié)語
該文用于解決PyTorch2.4安裝后,出現(xiàn)了 OSError: [WinError 126] 找不到指定的模塊,Error loading "PATH\torch\lib\fbgemm.dll" or one of its dependencies.的問題,如存在其他異常,還需進(jìn)一步探索,如有疑問,歡迎指正!
以上就是PyTorch中l(wèi)oading fbgemm.dll異常的解決辦法的詳細(xì)內(nèi)容,更多關(guān)于PyTorch loading fbgemm.dll異常的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Python?OpenCV實現(xiàn)簡單的顏色識別功能(對紅色和藍(lán)色識別并輸出)
Python?OpenCV可以用來進(jìn)行顏色識別,可以通過讀取圖像的像素值,來判斷像素點的顏色,從而實現(xiàn)顏色識別,這篇文章主要給大家介紹了關(guān)于Python?OpenCV實現(xiàn)簡單的顏色識別功能(對紅色和藍(lán)色識別并輸出)的相關(guān)資料,需要的朋友可以參考下2023-12-12更換Django默認(rèn)的模板引擎為jinja2的實現(xiàn)方法
今天小編就為大家分享一篇更換Django默認(rèn)的模板引擎為jinja2的實現(xiàn)方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-05-05