Deepseek R1模型本地化部署+API接口調(diào)用詳細(xì)教程(釋放AI生產(chǎn)力)
前言
隨著最近人工智能 DeepSeek 的爆火,越來(lái)越多的技術(shù)大佬們開(kāi)始關(guān)注如何在本地部署 DeepSeek,利用其強(qiáng)大的功能,甚至在沒(méi)有互聯(lián)網(wǎng)連接的情況下也能進(jìn)行高效的使用。事實(shí)上,DeepSeek 的技術(shù)實(shí)力已經(jīng)不亞于 OpenAI 的 GPT 系列,因此許多人對(duì)其部署和應(yīng)用產(chǎn)生了濃厚的興趣。
在這篇文章中,我將一步步帶你完成本地 DeepSeek 部署的整個(gè)過(guò)程,確保你能夠順利地將其應(yīng)用于你的工作或個(gè)人項(xiàng)目中。除此之外,我還會(huì)指導(dǎo)如何通過(guò)API接口的調(diào)用,把deepseek應(yīng)用到vscode中,成為你的編程助手。
一、deepseek R1模型與chatGPT o1系列模型對(duì)比
deepseek R1模型與chatGPT 4o:
deepseek R1模型與chatGPT o1:
總體而言,DeepSeek R1在性能和成本方面具有優(yōu)勢(shì),適合對(duì)成本敏感的應(yīng)用;而ChatGPT o1在可靠性和安全性方面更為出色,適合對(duì)隱私和安全有高要求的場(chǎng)景。
二、本地部署步驟
1.安裝ollama
我們需要先安裝ollama,安裝地址ollama,我們直接點(diǎn)擊下載,并不需要魔法,官網(wǎng)打開(kāi)十分流暢
選擇對(duì)應(yīng)的版本進(jìn)行下載,這里我的是Windows
下載完成后雙擊exe文件進(jìn)行安裝,直接點(diǎn)擊這里的install進(jìn)行軟件的安裝,等待幾分鐘即可
要判斷 Ollama 是否安裝成功,可以按照以下步驟進(jìn)行:
1.打開(kāi)命令提示符:按下 Win + R 鍵,輸入 cmd 并按回車,這將打開(kāi)命令提示符窗口。
2.檢查安裝版本:在命令行中輸入以下命令:
ollama -v
按下回車后,如果系統(tǒng)顯示出 Ollama 的版本號(hào),說(shuō)明安裝成功。
如果出現(xiàn)版本號(hào),表示 Ollama 已經(jīng)正確安裝并可以使用。如果沒(méi)有顯示版本號(hào)或出現(xiàn)錯(cuò)誤信息,說(shuō)明安裝可能失敗,需要重新檢查安裝過(guò)程。
2部署DeepSeek R1模型
接下來(lái)我們進(jìn)行部署DeepSeek R1模型的操作,我們依舊打開(kāi)ollama的官網(wǎng),可以看見(jiàn)左上角有一個(gè)Models的選項(xiàng),我們點(diǎn)擊下
選擇deepseek-r1,這里的話有很多模型,我們可以根據(jù)自己電腦的顯卡配置進(jìn)行選擇相應(yīng)的版本,以下是模型與配置的建議
這里我選擇7b模型
選擇好之后復(fù)制
回到命令提示符模式,首先按下 Win + R
鍵,輸入 cmd
并按回車,打開(kāi)命令行窗口。然后,將之前復(fù)制的命令粘貼到命令行中,并按下回車。
接下來(lái),等待片刻讓下載開(kāi)始。需要注意的是,下載過(guò)程可能會(huì)稍微慢一些,我自己等待了一段時(shí)間才完成下載。通常情況下,文件會(huì)默認(rèn)下載到 C 盤,因此如果你沒(méi)有更改下載路徑,可以在 C 盤找到相關(guān)文件。
如果你發(fā)現(xiàn)下載速度很慢,可以按 Ctrl + C
中斷當(dāng)前的下載命令,然后重新輸入相同的命令再次啟動(dòng)下載。值得注意的是,重新開(kāi)始下載時(shí),系統(tǒng)通常會(huì)從上次下載的進(jìn)度繼續(xù)進(jìn)行,因此你不需要從頭開(kāi)始下載。在我重新嘗試下載后,下載速度明顯提高了一些。
出現(xiàn)了一個(gè)success就是下載好了,那么我們就可以直接進(jìn)行對(duì)話了,如果想退出對(duì)話輸入/bye來(lái)退出
查看已經(jīng)安裝的模型我們可以輸入指令
ollama list
刪除已存在模型,以7b模型為例
用指令
ollama list
查看已存在的模型,復(fù)制要?jiǎng)h除的模型名稱
再輸入指令
ollama rm deepseek-r1:7b
即可
三、DeepSeek API接口調(diào)用
點(diǎn)擊DeepSeek官網(wǎng)右上角API開(kāi)放平臺(tái),完成登錄后,默認(rèn)會(huì)獲得10元。接著,進(jìn)入左側(cè)欄的API keys。創(chuàng)建API key,即可拿到DeepSeek的APIKey了。
Cline配置
Cline是一個(gè)編程助手插件,旨在提升開(kāi)發(fā)者的編碼效率。它可以在VSCode中提供代碼自動(dòng)補(bǔ)全、智能提示、錯(cuò)誤檢測(cè)等功能。通過(guò)與DeepSeek API的結(jié)合,Cline可以實(shí)現(xiàn)更加強(qiáng)大的AI輔助功能,幫助開(kāi)發(fā)者更快速地進(jìn)行開(kāi)發(fā)。
具體操作流程如下:
安裝Cline插件:
打開(kāi)VSCode,點(diǎn)擊左側(cè)菜單,搜索并選擇安裝名為“Cline”的插件。插件安裝后,它會(huì)出現(xiàn)在左側(cè)菜單中。
配置DeepSeek API:
- 選擇已經(jīng)安裝好的Cline插件,配置API接入源為DeepSeek。
- 輸入DeepSeek的API Key,完成后點(diǎn)擊【Done】。
完成配置:
完成API的配置后,Cline插件就與DeepSeek關(guān)聯(lián)成功。此時(shí),你可以在插件的輸入框上方看到一些配置選項(xiàng)。
啟用編碼助手:
在Cline配置完成后,選擇【全選】功能,勾選啟用自動(dòng)補(bǔ)全和智能提示等功能,幫助你更高效地編寫代碼。
到此這篇關(guān)于Deepseek R1模型本地化部署+API接口調(diào)用詳細(xì)教程(釋放AI生產(chǎn)力)的文章就介紹到這了,更多相關(guān)Deepseek R1本地化部署內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- Linux 服務(wù)器本地部署 DeepSeek-R1 大模型并在遠(yuǎn)端Web-UI訪問(wèn)保姆級(jí)教程
- 在linux服務(wù)器本地部署Deepseek及在mac遠(yuǎn)程web-ui訪問(wèn)的操作
- deepseek本地部署流程(解決服務(wù)器繁忙以及隱私等問(wèn)題)
- DeepSeek?Window本地私有化部署教程
- 通過(guò)Docker為本地DeepSeek-r1部署WebUI界面的完整教程
- 本地私有化部署DeepSeek模型的詳細(xì)教程
- 在本地快速部署deepseek的操作指南(3分鐘極速部署)
- DeepSeek本地部署+可視化WebUI的實(shí)現(xiàn)(圖文教程)
- DeepSeek本地部署+可視化WebUI的實(shí)現(xiàn)(圖文教程)
- DeepSeek本地部署流程詳細(xì)指南
- 0基礎(chǔ)租個(gè)硬件玩deepseek,藍(lán)耘元生代智算云|本地部署DeepSeek?R1模型的操作流程
相關(guān)文章
vscode中l(wèi)aunch.json和task.json配置教程(重要參數(shù)詳解)
這篇文章主要給大家介紹了關(guān)于vscode中l(wèi)aunch.json和task.json配置(重要參數(shù)詳解)的相關(guān)資料,文中通過(guò)圖文介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2023-04-04win10安裝Anaconda+tensorflow2.0-CPU+Pycharm的圖文教程
本文通過(guò)圖文并茂的形式給大家介紹了win10安裝Anaconda+tensorflow2.0-CPU+Pycharm的教程,非常不錯(cuò),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2019-12-12chatgpt國(guó)內(nèi)鏡像?pycharm?idea插件使用詳解
這篇文章主要介紹了chatgpt國(guó)內(nèi)鏡像?pycharm?idea插件使用詳解,本文通過(guò)圖文實(shí)例代碼相結(jié)合給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2023-02-02使用阿里大于(大魚)平臺(tái)進(jìn)行發(fā)送手機(jī)驗(yàn)證碼的流程
這篇文章主要介紹了使用阿里大于(大魚)平臺(tái)進(jìn)行發(fā)送手機(jī)驗(yàn)證碼的流程,非常不錯(cuò),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2019-10-10如何將服務(wù)器上的python代碼通過(guò)QQ發(fā)送回傳信息(附實(shí)現(xiàn)方法)
這篇文章主要介紹了我將服務(wù)器上的python代碼通過(guò)QQ發(fā)送回傳信息(附實(shí)現(xiàn)方法),本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-05-05Linux上設(shè)置Ollama服務(wù)配置(常用環(huán)境變量)
本文主要介紹了Linux上設(shè)置Ollama服務(wù)配置(常用環(huán)境變量),Ollama提供了多種環(huán)境變量供配置,如調(diào)試模式、模型目錄等,下面就來(lái)介紹一下,感興趣的可以了解一下2025-03-03