如何本地部署DeepSeek
沒想到新年最熱鬧的地方之一會是互聯(lián)網,刷爆朋友圈的除了新年祝福還有DeepSeek。揣著一顆好奇心試了試,竟有一種發(fā)現(xiàn)新大路的感覺。估計是圍觀的人太多,在線的版本有時候會出現(xiàn)連不上的情況,好奇心驅使之下想嘗試本地部署。
方案
本地化方案非常簡單:Ollama + DeepSeek-R1 + Enchanted LLM 。
Ollama 是一個用于在本地運行大型語言模型(LLMs)的工具,支持多種開源模型,如 Llama 2、Code Llama、Mistral 等。它簡化了模型下載、配置和運行的過程,用戶可以通過命令行輕松管理模型。使用起來頗有docker的感覺,pull、run、ps...。安裝也簡單,選擇對于系統(tǒng),下載安裝就妥了。
DeepSeek-R1
在Ollama的網站上(https://ollama.com/)Models頁面當前排名第一的就是DeepSeek-R1,點進去選擇對應的版本,右邊會展示對應的ollama 命令,復制命令粘貼到命令行工具中執(zhí)行即可。如圖:
這種高端操作一帆風順貌似不太合理,所以我也遇到點問題。不同的版本大小差異會比較大,第一個上手的是70b這個版本,總大小43GB。en~下了兩個小時左右,終于好了,正準備見證奇跡的時候,ollama拋出這樣一個提示:ollama Error: Post "http://127.0.0.1:11434/api/show": read tcp 127.0.0.1:57953->127.0.0.1:11434: read: connection reset by peer
。后來問了DeepSeek,它思考了半天,它告訴我The server is busy. Please try again later.
最后它讓我檢查服務狀態(tài)、端口占用、防火墻、Ollama版本......一頓操作之后突然想起了ollama ps這個命令,一看傻眼了,啥都沒有。突然明白是模型沒運行起來,估計是電腦配置不夠,70b這個版本高攀不起。于是開始嘗試1.5b這個版本,一切順利,可以通過控制臺進行對話了。讓它用React實現(xiàn)一個tab組件,好家伙給了我十幾個方案,果斷換下一個版本。于是選擇了32b這個版本,20GB竟然成功跑起來了。
Enchanted
控制臺對話終究沒有UI方便,在Ollama README上列舉了大量UI工具,如Open WebUI、Enchanted、Hollama、Lollms-Webui.... 因為本地是MacOs,這里選擇的是Enchanted。Enchanted是MacOs下的一個App,也支持IOS和Vision Pro,在AppStore上下載安裝即可。Enchanted配置非常簡單,填寫本地服務地址(Ollama本地服務是: localhost:11434)選擇對應模型版本即可。至此本地化就完成了。最后附上紀念照:
到此這篇關于如何本地部署DeepSeek的文章就介紹到這了,更多相關本地部署DeepSeek內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
DVWA下載、安裝、使用(漏洞測試環(huán)境搭建)的詳細教程
這篇文章主要介紹了DVWA下載、安裝、使用(漏洞測試環(huán)境搭建)的詳細教程,本文通過圖文并茂的形式給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2020-10-10chatgpt成功解決Access denied 1020錯誤問題(最新推薦)
從前兩天網上開始一直開著的chatgpt網頁突然打不開了,提示1020錯誤,嘗試換了不同代理軟件或者代理地點仍然無法解決,這篇文章主要介紹了chatgpt成功解決Access denied 1020錯誤,需要的朋友可以參考下2023-05-05