基于Ollama本地安裝部署DeepSeek教程(圖)
DeepSeek安裝部署教程,基于Ollama獲取最強推理能力!DeepSeek爆火,如何免費部署到你的電腦上?打造最強大腦獲取頂級推理能力教程來了,先在你的本地安裝Ollama,然后在Ollama搜索選擇DeepSeek模型,即可成功在你的本地部署DeepSeek,整理詳細教程如下:
安裝Ollama
打開Ollama官方頁面:ollama.com 點擊“Download”,如下圖:
本地電腦安裝Ollama
根據(jù)你本地電腦的操作系統(tǒng)類型下載對應的Ollama版本,目前Ollama支持macOS、Linux和Windows主流操作系統(tǒng)。關于Ollama的下載和安裝,碼筆記就不多贅述。
運行Ollama
打開Ollama,只需要確保你的電腦上已經(jīng)運行Ollama即可。以Mac為例,在頂部菜單欄中看到這個小羊駝的圖標即可,如下圖:
打開并運行Ollama
Ollama查找deepseek
打開Ollama官方頁面:ollama.com 搜索“deepseek”,如下圖:
deepseek-r1大模型
選擇deepseek-r1不同模型大小
點擊deepseek-r1,你會發(fā)現(xiàn)有多個不同大小的模型版本,如1.5b、7b、8b、14b、32b、70b或671b,模型大小不同,可適配的電腦顯存、顯卡及內(nèi)存配置也不同,大家可以參考下表,根據(jù)配置選擇不同大小的模型,參考:deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥區(qū)別?
如何運行模型?
如何運行deepseek?運行模型很簡單,確定好想要的模型后,復制對應的命令到你的終端并執(zhí)行。
DeepSeek-R1-Distill-Qwen-1.5B:
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B:
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B:
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B:
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B:
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B:
ollama run deepseek-r1:70b
碼筆記以1.5B為例,復制 ollama run deepseek-r1:1.5b
在終端粘貼并執(zhí)行,然后等待進度條pulling manifest下載100%,如下圖:
DeepSeek pulling manifest
然后就可以開始折騰了,例如在終端輸入“阿里云會讓我財富自由嗎?”
阿里云會讓我財富自由嗎?
如果想退出模型,在終端輸入/bye
即可。
本文關于DeepSeek的教程,是基于Ollama這個大模型運行框架,更多關于Ollama的命令操作,請參考上網(wǎng)搜索Ollama終端指令,本文不多贅述。
到此這篇關于基于Ollama本地安裝部署DeepSeek教程(圖)的文章就介紹到這了,更多相關Ollama安裝DeepSeek內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
DeepSeek R1本地化部署 Ollama + Chatbox 如
文章介紹了如何在本地部署DeepSeekR1模型并使用Chatbox進行交互,使用戶能夠擁有強大的AI工具,感興趣的朋友跟隨小編一起看看吧2025-02-02使用 tke-autoscaling-placeholder 實現(xiàn)秒級彈性伸縮的方法
這篇文章主要介紹了使用 tke-autoscaling-placeholder 實現(xiàn)秒級彈性伸縮的方法,本文通過實例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2021-01-01chatgpt國內(nèi)鏡像?pycharm?idea插件使用詳解
這篇文章主要介紹了chatgpt國內(nèi)鏡像?pycharm?idea插件使用詳解,本文通過圖文實例代碼相結合給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2023-02-02