-
-
知犀思維導(dǎo)圖 v3.6.1 linux最新版 辦公軟件 / 156MB
-
知犀思維導(dǎo)圖 v3.6.1 官方安裝版 辦公軟件 / 1.62MB
-
DeepSeek-R1本地部署模型LM Studio v0.3.30 中文版 含DeepSeek-R 辦公軟件 / 523MB
-
Office AI助手(增強(qiáng)ExcelAI功能) v0.5.6 安裝免費(fèi)版 辦公軟件 / 38.5MB
-
-
WHPH(生產(chǎn)力工具) v0.15.0 便攜綠色版 辦公軟件 / 16.7MB
-
影刀客戶端(RPA) v5.30.37 免費(fèi)安裝版 辦公軟件 / 1.16 GB
-
WPS365客戶端(WPS全家桶) v12.1.0.22529 for Windows 官方最新正 辦公軟件 / 504MB
-
潤工作(一站式辦公平臺)v7.32.0 官方免費(fèi)安裝版 辦公軟件 / 283MB
詳情介紹
LM Studio是一個(gè)專注于本地大語言模型交互的桌面應(yīng)用程序,為在本地設(shè)備上運(yùn)行大型語言模型提供了創(chuàng)新且高效的解決方案。LM Studio基于llama.cpp開發(fā),提供圖形界面,無需命令行操作,專注桌面端用戶體驗(yàn)。
什么是LM Studio?
LM Studio 是一個(gè)創(chuàng)新的人工智能平臺,專注于提供快速、安全的本地大型語言模型運(yùn)行和下載服務(wù)。它支持多種先進(jìn)的語言模型,如LLaMa、MPT和Gemma等,并且具備優(yōu)越的離線運(yùn)行能力。通過這個(gè)工具,用戶可以在本地機(jī)器上高效地運(yùn)行模型,從而避免了數(shù)據(jù)隱私問題和網(wǎng)絡(luò)延時(shí)所帶來的困擾。
軟件特色
模型管理:支持從Hugging Face等資源庫中拉取、存儲、運(yùn)行各類GGUF格式模型,用戶可以在軟件內(nèi)方便地瀏覽、搜索和選擇自己需要的模型。
硬件協(xié)同優(yōu)化:依托l(wèi)lama.cpp底層架構(gòu),針對NVIDIA系列GPU運(yùn)用GPU卸載技術(shù),合理分配運(yùn)算任務(wù),突破顯存局限;在內(nèi)存管理方面,借助模型量化手段降低內(nèi)存占用量,確保設(shè)備內(nèi)存有限的情況下也能平穩(wěn)加載運(yùn)行大型模型。
參數(shù)調(diào)控:用戶可靈活調(diào)整“溫度”“重復(fù)懲罰”等參數(shù),精準(zhǔn)定制模型輸出。比如“溫度”參數(shù)可調(diào)整輸出文本的靈活度,“重復(fù)懲罰”參數(shù)可把控文本多樣性。
文本嵌入強(qiáng)化檢索:借助POST/v1/embeddings端點(diǎn)生成文本嵌入向量,融入檢索增強(qiáng)生成(RAG)架構(gòu)體系,在海量文檔、知識庫搜索場景表現(xiàn)卓越。
內(nèi)置兼容OpenAI的本地服務(wù)器功能:無縫銜接既有基于OpenAI API搭建的應(yīng)用與本地模型,極大縮短開發(fā)適配周期,助力創(chuàng)新應(yīng)用高效落地。
使用教程
1、打開LM studio程序

2、點(diǎn)擊右下角的設(shè)置,里面把語言選擇成為“簡體中文”

模型存放及部署設(shè)置
1、需要下載Deepseek-R1模型,當(dāng)我們下載好模型文件后,需要注意,不能隨便存放,因?yàn)樾枰尠惭b好的LM Studio來加載,而它對文件加載是有規(guī)定的,在客戶端里選擇”模型目錄“,然后我們選擇”更改“

2、這里我們把文件舉例放在D盤,新建一個(gè)文件夾,取名:models000,注意,這里的文件夾也不能有任何符號及中文

3、我們在models000下再建立一個(gè)文件夾001,在001里繼續(xù)建立一個(gè)文件夾 002,這樣002就處于三級目錄下了,我們把剛才下載的R1模型文件,復(fù)制在這個(gè)002文件夾內(nèi)就可以了

4、然后我們回到剛才LM studio的模型目錄里,就直接可以看到剛才已經(jīng)復(fù)制的模型了

5、點(diǎn)擊聊天界面,再點(diǎn)擊上面的模型選擇按鈕

6、選擇剛才的模型后,點(diǎn)擊加載等待完成即可,注意:這里可以選擇加一個(gè)“快速注意力”
更新日志
谷歌Gemma 3支持
修復(fù)了一個(gè)錯(cuò)誤,該錯(cuò)誤導(dǎo)致右下角的設(shè)置按鈕在應(yīng)用程序啟動(dòng)時(shí)短暫跳轉(zhuǎn)
修復(fù)了一個(gè)錯(cuò)誤,即在服務(wù)器頁面中單擊模型時(shí),如果折疊,側(cè)邊欄不會打開
修復(fù)了開發(fā)人員日志頂部欄有垂直滾動(dòng)的錯(cuò)誤
[Windows]防止用戶在LM Studio安裝目錄中意外設(shè)置models目錄
LM Studio 0.3.23 - 完整發(fā)行說明
構(gòu)建 3
[llama.cpp][教育部]通過高級負(fù)載設(shè)置中的“將模型專家權(quán)重強(qiáng)制到 CPU”,添加將專家權(quán)重卸載到 CPU/GPU RAM 的功能
工具名稱在提供給模型之前進(jìn)行規(guī)范化(替換空格、特殊字符)
構(gòu)建 2
修復(fù)下載員工挑選的模型時(shí)有時(shí)“完成下載”按鈕不起作用的問題
修復(fù)“修復(fù)”按鈕不適用于擴(kuò)展包(如 Harmony)
修復(fù)了某些包含工具的請求的“無法讀取未定義的屬性(讀取'properties')”的問題/v1/chat/completions
修復(fù)自動(dòng)更新和諧時(shí)的問題Error: EPERM: operation not permitted, unlink
構(gòu)建 1
錯(cuò)誤修復(fù),顯著提高了聊天工具調(diào)用的可靠性
修復(fù)了一些舊對話無法在應(yīng)用程序中加載的錯(cuò)誤
修復(fù)了在非流式模式下通過 OpenAI 兼容 API 使用時(shí)工具調(diào)用有時(shí)會失敗的錯(cuò)誤
修復(fù)模型不輸出v1/chat/completions
對于 gpt-oss:
message.content不會包含推理內(nèi)容或特殊標(biāo)簽
這與 的行為相匹配。o3-mini
推理內(nèi)容將位于 (stream=false) 和 (stream=true) 中choices.message.reasoningchoices.delta.reasoning
修復(fù)“TypeError: Invalid Version”導(dǎo)致在配備 AMD+NVIDIA GPU 的機(jī)器上出現(xiàn)應(yīng)用程序功能問題的問題
修復(fù)了 MCP 插件芯片名稱在用戶模式下未渲染的錯(cuò)誤
修復(fù)了搜索結(jié)果在單擊時(shí)刷新的錯(cuò)誤
LM Studio 0.3.20 - 完整發(fā)行說明
構(gòu)建 4
通過llama.cpp引擎改進(jìn) Qwen3-Coder-480B-A35B 工具調(diào)用生成
修復(fù)了由于 jinja 模板問題導(dǎo)致的部分 MCP 服務(wù)器無法與 Qwen3-Coder 一起使用的問題
添加聊天外觀選項(xiàng),可將新消息滾動(dòng)到頂部或保留在底部
構(gòu)建 3
Qwen3-Coder-480B-A35B 工具支持
構(gòu)建 2
修復(fù)了應(yīng)用程序無法打開的錯(cuò)誤
構(gòu)建 1
修復(fù)選擇模型后模型加載器閃爍的問題
LM Studio 0.3.18 - 完整的發(fā)布說明
構(gòu)建3
修復(fù)了從OpenAI兼容端點(diǎn)流式傳輸時(shí)的錯(cuò)誤格式,以匹配預(yù)期格式
為Mistral v13 tokenizer模型添加了工具調(diào)用支持(使用適當(dāng)?shù)牧奶炷0澹?/p>
構(gòu)建2
使用OpenAI兼容端點(diǎn)進(jìn)行流式傳輸時(shí),添加了對“stream_options”: { "include_usage": true }的支持
將@huggingface/jinja升級到0.5.0版本,以支持更多提示模板
修復(fù)了一個(gè)錯(cuò)誤,即應(yīng)用程序會為只能進(jìn)行CPU推斷的計(jì)算機(jī)推薦過大的第一個(gè)模型
修復(fù)了您無法禁用錯(cuò)誤插件的錯(cuò)誤
添加印地語和馬拉地語翻譯
構(gòu)建1
MCP:在•••菜單下強(qiáng)制重新啟動(dòng)MCP服務(wù)器的選項(xiàng)
MCP:添加了用于刷新工具列表的按鈕
狹窄窗口上任務(wù)控制的響應(yīng)式用戶界面
當(dāng)應(yīng)用程序窗口狹窄時(shí),在彈出窗口中顯示聊天屏幕邊欄
在mcp.json的條目中添加了一個(gè)超時(shí)字段,該字段可用于以毫秒為單位指定每個(gè)工具調(diào)用的最大時(shí)間
添加了使用Deno的實(shí)驗(yàn)性JavaScript代碼解釋器插件
對插件感興趣嗎?在此注冊插件私人測試版:https://forms.gle/ZPfGLMvVC6DbSRQm9
各種用戶界面和顏色調(diào)整
修復(fù)了聊天消息草稿和附加文件無法延續(xù)到新創(chuàng)建的聊天的錯(cuò)誤
修復(fù)了一個(gè)錯(cuò)誤,即工具使用不適用于駱駝模型(this.endToolCallStrings不可迭代)
修復(fù)了OpenAI兼容端點(diǎn)的錯(cuò)誤,即response_format.type不支持文本
修復(fù)了一個(gè)錯(cuò)誤,即跨多個(gè)“塊”拆分的并行工具調(diào)用被無聲丟棄
修復(fù)了SSE MCP服務(wù)器無法正常工作的錯(cuò)誤
修復(fù)了根級$defs在工具定義中被剝離的錯(cuò)誤
0.3.17 - 完整發(fā)行說明
版本 10
添加了 Chat Appearance 設(shè)置,以僅在最后一條消息、僅在工具提示中或在所有適用的消息上顯示消息生成統(tǒng)計(jì)信息
令牌計(jì)數(shù)現(xiàn)在包括系統(tǒng)提示符和工具定義
為內(nèi)容中包含 URL 的 LLM 消息顯示“在瀏覽器中打開”按鈕。
請注意:LLM 可能會生成不受信任的 URL。點(diǎn)擊前始終驗(yàn)證鏈接。
構(gòu)建 9
默認(rèn)啟用 MCP
Cmd + Shift + E在 Mac 或 PC 上始終打開當(dāng)前聊天的系統(tǒng)提示編輯器Ctrl + Shift + E
版本 8
當(dāng)下載面板在新窗口中打開時(shí),添加一個(gè)選項(xiàng)以將其固定在其他窗口的頂部(右鍵單擊正文)
添加以下語言,感謝我們的社區(qū)本地化人員!
馬拉雅拉姆語 (ml) @prasanthc41m
泰語 (th) @gnoparus
波斯尼亞語 (bs) @0haris0
保加利亞語 (bg) @DenisZekiria
匈牙利語 (胡) @Mekemoka
孟加拉語 (bn) @AbiruzzamanMolla
加泰羅尼亞語 (ca) @Gopro3010
芬蘭語 (fi) @reinew
希臘語 (gr) @ilikecatgirls
羅馬尼亞語 (ro) @alexandrughinea
瑞典語 (sv) @reinew
修復(fù)了在選擇草稿模型進(jìn)行推測解碼時(shí)條目可能重復(fù)的錯(cuò)誤
構(gòu)建 7
添加了思考塊預(yù)覽“暈影”,并在聊天外觀設(shè)置中提供了禁用選項(xiàng)
將 “Qwen3 Embedding” 模型的默認(rèn)域設(shè)置為 Text Embedding
添加了命令到命令以顯示預(yù)測統(tǒng)計(jì)信息(感謝@Yorkie--statslms chat)
[視窗][ROCm]Strix Halo (AMD Ryzen AI PRO 300 系列) 支持
[視窗]將 CPU 名稱添加到硬件頁面
版本 6
在生成工具調(diào)用參數(shù)令牌時(shí)將其流式傳輸?shù)?UI
修復(fù)了在模型生成時(shí)向上滾動(dòng)的錯(cuò)誤
修復(fù)了工具權(quán)限對話框不會自動(dòng)滾動(dòng)到聊天底部的錯(cuò)誤
構(gòu)建 5
為了減少新用戶的混淆,“change role”和“insert”按鈕現(xiàn)在將在新安裝時(shí)默認(rèn)隱藏。您可以右鍵單擊發(fā)送按鈕以打開或關(guān)閉它們。
修復(fù)了不提供參數(shù)對象的 MCP 工具無法正常工作的錯(cuò)誤。
修復(fù)了如果 MCP 服務(wù)器重新加載,正在進(jìn)行的工具調(diào)用將無限期掛起的錯(cuò)誤。
版本 4
[MCP 測試版]修復(fù)了當(dāng)工具調(diào)用的參數(shù)包含數(shù)組或?qū)ο髸r(shí)崩潰的問題
構(gòu)建 3
修復(fù)了引擎更新有時(shí)會卡住的錯(cuò)誤
構(gòu)建 2
改進(jìn)了全尺寸 DeepSeek-R1 工具調(diào)用的可靠性
按鈕彈出下載面板到新窗口。
版本 1
新主題:Solarized Dark。
在“設(shè)置”>“常規(guī)”中設(shè)置它,或按[?/Ctrl K + T]
修復(fù)了模型目錄時(shí)間戳、點(diǎn)贊、下載排序未按預(yù)期工作的問題。
修復(fù)了模型刪除對話框中的占位符文本。
修復(fù)了 MLX 模型在 Windows 上顯示的問題。
修復(fù)了標(biāo)題欄重新出現(xiàn)在 No chats 頁面上的錯(cuò)誤。
修復(fù)了快速轉(zhuǎn)義時(shí)刪除聊天對話框會阻止聊天 UI 的錯(cuò)誤。
LM Studio 0.3.15:RTX 50 系列 GPU 和改進(jìn)
LM Studio 0.3.15 現(xiàn)已作為穩(wěn)定版本提供。此版本包括對 NVIDIA RTX 50 系列 GPU (CUDA 12) 的支持,UI 修飾包括新的系統(tǒng)提示編輯器 UI。此外,我們還改進(jìn)了對工具使用(參數(shù))的 API 支持,并添加了一個(gè)新選項(xiàng),用于將每個(gè)生成的片段記錄到 API 服務(wù)器日志中。tool_choice
支持采用 CUDA 12 的 RTX 50 系列 GPU
LM Studio 現(xiàn)在支持 RTX 50 系列 GPU (CUDA 12.8) 以及 Windows 和 Linux 上的引擎。此更改使 RTX 50 系列 GPU 上的首次模型加載時(shí)間如預(yù)期般快。對于配備 RTX 50 系列 GPU 的機(jī)器,如果 NVIDIA 驅(qū)動(dòng)程序版本兼容,LM Studio 將自動(dòng)升級到 CUDA 12。llama.cpp
最低驅(qū)動(dòng)程序版本為:
Windows:551.61 或更高版本
Linux:550.54.14 或更高版本
如果您有 RTX 50 系列 GPU 并且驅(qū)動(dòng)程序版本兼容,LM Studio 將自動(dòng)升級到 CUDA 12。 如果您有 RTX 50 系列 GPU,并且驅(qū)動(dòng)程序版本不兼容,LM Studio 將繼續(xù)使用 CUDA 11。在 中管理此功能。Ctrl + Shift + R
新的 System Prompt Editor UI
系統(tǒng)提示符是自定義模型行為的強(qiáng)大方法。它們可以只有幾個(gè)字,有時(shí)也可以長達(dá)數(shù)頁。LM Studio 0.3.15 引入了更大的視覺空間來編輯更長的提示。您仍然可以使用側(cè)邊欄中的迷你提示編輯器。
改進(jìn)的工具使用 API 支持
類似 OpenAI 的 REST API 現(xiàn)在支持該參數(shù),該參數(shù)允許您控制模型使用工具的方式。該參數(shù)可以采用三個(gè)值:tool_choicetool_choice
"tool_choice": "none"- 模型不會調(diào)用任何工具
"tool_choice": "auto"- 模型決定是否調(diào)用工具
"tool_choice": "required"- 強(qiáng)制模型僅輸出工具 (僅限 llama.cpp 引擎)
我們還修復(fù)了 LM Studio 的 OpenAI 兼容模式中的一個(gè)錯(cuò)誤,即數(shù)據(jù)塊“finish_reason”在適當(dāng)時(shí)未設(shè)置為“tool_calls”。
還有......社區(qū)預(yù)設(shè)(預(yù)覽版)
預(yù)設(shè)是將系統(tǒng)提示和模型參數(shù)打包在一起的便捷方法。
從 LM Studio 0.3.15 開始,您可以與社區(qū)共享您的預(yù)設(shè),并通過 Web ?? 下載其他用戶制作的預(yù)設(shè)。您還可以點(diǎn)贊和分叉其他人制作的預(yù)設(shè)。
在“設(shè)置”>“常規(guī)”中啟用此功能>啟用發(fā)布和下載預(yù)設(shè)。打開后,當(dāng)您右鍵單擊側(cè)邊欄中的預(yù)設(shè)時(shí),您會發(fā)現(xiàn)一個(gè)新的“發(fā)布”按鈕。這將允許您將預(yù)設(shè)發(fā)布到社區(qū)。
在 https://lmstudio.ai/login 獲取您的用戶名并開始分享您的預(yù)設(shè)!您不需要帳戶即可下載預(yù)設(shè),只需發(fā)布即可。
LM Studio 0.3.9
LM Studio 0.3.9 包括一個(gè)新的空閑 TTL 功能,支持 Hugging Face 存儲庫中的嵌套文件夾,以及一個(gè)實(shí)驗(yàn)性 API,用于在聊天完成響應(yīng)的單獨(dú)字段中接收。reasoning_content
早期版本的 0.3.9 在流式處理 DeepSeek R1 聊天完成響應(yīng)時(shí)存在錯(cuò)誤。請更新到最新版本 (5) 以解決此問題。
空閑 TTL 和自動(dòng)移出
用例:假設(shè)您正在使用 Zed、Cline 或 Continue.dev 等應(yīng)用程序與 LM Studio 提供的 LLM 進(jìn)行交互。這些應(yīng)用程序利用 JIT 在您首次使用模型時(shí)按需加載模型。
問題:當(dāng)您沒有主動(dòng)使用模型時(shí),您可能不希望它繼續(xù)加載到內(nèi)存中。
解決方案:為通過 API 請求加載的模型設(shè)置 TTL。每次模型收到請求時(shí),空閑計(jì)時(shí)器都會重置,因此在您使用它時(shí)它不會消失。如果模型未執(zhí)行任何工作,則認(rèn)為模型處于空閑狀態(tài)。當(dāng)空閑 TTL 過期時(shí),模型會自動(dòng)從內(nèi)存中卸載。
您可以在請求負(fù)載中設(shè)置以秒為單位的 TTL,或用于命令行使用。lms load --ttl <seconds>
在文檔文章中閱讀更多內(nèi)容:TTL 和自動(dòng)驅(qū)逐。
在聊天完成響應(yīng)中分離reasoning_content

對于 DeepSeek R1,在單獨(dú)的字段中獲取推理內(nèi)容
DeepSeek R1 模型在標(biāo)簽內(nèi)生成內(nèi)容。此內(nèi)容是模型的 “推理” 過程。在聊天完成響應(yīng)中,您現(xiàn)在可以在一個(gè)名為 following the pattern in DeepSeek API 的單獨(dú)字段中接收此內(nèi)容。<think></think>reasoning_content
這適用于流式和非流式完成。您可以在 App Settings > Developer 中打開此功能。此功能目前處于試驗(yàn)階段。
注意:根據(jù) DeepSeek 的文檔,您不應(yīng)在下一個(gè)請求中將推理內(nèi)容傳回給模型。
LM 運(yùn)行時(shí)的自動(dòng)更新
LM Studio 支持多種引擎變體(僅 CPU、CUDA、Vulkan、ROCm、Metal)以及 Apple MLX 引擎。這些引擎會頻繁更新,尤其是在發(fā)布新模型時(shí)。llama.cpp
為了減少手動(dòng)更新多個(gè)片段的需要,我們?yōu)檫\(yùn)行時(shí)引入了自動(dòng)更新。默認(rèn)情況下,此功能處于啟用狀態(tài),但您可以在 App Settings 中將其關(guān)閉。
更新運(yùn)行時(shí)后,您將看到一條通知,其中顯示了發(fā)行說明。您也可以在 runtimes 選項(xiàng)卡中自行管理:在 Windows/Linux 上,在 macOS 上。Ctrl + Shift + RCmd + Shift + R

LM 運(yùn)行時(shí)將自動(dòng)更新到最新版本。您可以在設(shè)置中關(guān)閉此功能
支持 Hugging Face 存儲庫中的嵌套文件夾
一個(gè)期待已久的功能:您現(xiàn)在可以從 Hugging Face 存儲庫中的嵌套文件夾下載模型。如果您最喜歡的模型發(fā)布者將其模型組織在子文件夾中,您現(xiàn)在可以直接在 LM Studio 中下載它們。
這使得下載 https://huggingface.co/unsloth/DeepSeek-R1-GGUF 等模型變得容易。也適用于。lms get <hugging face url>
# Warning: this is a very large model
lms get https://huggingface.co/unsloth/DeepSeek-R1-GGUF
0.3.9 - 完整更改日志
版本 6
修復(fù)了在包含圖像的聊天中使用純文本模型時(shí)出現(xiàn)的“無法讀取 undefined 的屬性”
修復(fù)了 Windows 上的路徑解析問題,該問題導(dǎo)致某些計(jì)算機(jī)上的 LM 運(yùn)行時(shí)意外運(yùn)行
CUDA 模型加載崩潰,“llm_engine_cuda.node.系統(tǒng)無法訪問該文件”
ROCm 亂碼模型生成
修復(fù)了使用舊版本應(yīng)用程序創(chuàng)建的聊天中的 RAG 消息不顯示的錯(cuò)誤
修復(fù)了輸入法編輯器 (IME) 錯(cuò)誤:現(xiàn)在,按 Enter 鍵時(shí),除非完成合成,否則不會發(fā)送消息
構(gòu)建 5
修復(fù)了在流式傳輸 DeepSeek R1 聊天完成響應(yīng)時(shí)不遵循設(shè)置的 API 錯(cuò)誤reasoning_content
版本 4
新的實(shí)驗(yàn)性 API:在聊天完成響應(yīng)(流式和非流式)中的單獨(dú)字段中發(fā)送reasoning_content
適用于在標(biāo)簽內(nèi)生成內(nèi)容的模型(如 DeepSeek R1)<think></think>
在 App Settings > Developer 中打開
構(gòu)建 3
新增內(nèi)容:添加聊天外觀選項(xiàng)以自動(dòng)擴(kuò)展新添加的 Thinking UI 塊
新增內(nèi)容:當(dāng)應(yīng)用程序提供 insufficient system resources 錯(cuò)誤通知時(shí),顯示對護(hù)欄配置的快速訪問
修復(fù)了如果刪除非默認(rèn) models 目錄,則不會為新模型編制索引的錯(cuò)誤
修復(fù)了硬件檢測中的一個(gè)錯(cuò)誤,該錯(cuò)誤在使用 Vulkan 后端時(shí)有時(shí)會錯(cuò)誤地過濾掉多 GPU 設(shè)置中的 GPU
修復(fù)了模型加載 UI 中的一個(gè)錯(cuò)誤,該錯(cuò)誤導(dǎo)致沒有 Flash 注意的 F32 緩存類型無法被識別為 llama.cpp Metal 運(yùn)行時(shí)的有效配置
構(gòu)建 2
新增內(nèi)容:添加了對從 Hugging Face 存儲庫中的嵌套文件夾下載模型的支持
改進(jìn)了對直接使用 Hugging Face URL 進(jìn)行搜索的支持
新增內(nèi)容:自動(dòng)更新選定的運(yùn)行時(shí)擴(kuò)展包(您可以在設(shè)置中關(guān)閉此功能)
新增內(nèi)容:添加了使用 LM Studio 的 Hugging Face 代理的選項(xiàng)。這可以幫助無法直接訪問 Hugging Face 的用戶
新功能:MLX 模型的 KV 緩存量化(需要 mlx-engine/0.3.0)
我的模型選項(xiàng)卡刷新:更整潔的模型名稱和模型類型的側(cè)邊欄類別
可以切換回在“應(yīng)用程序設(shè)置”>“常規(guī)”中顯示完整文件名
要查看原始模型元數(shù)據(jù)(以前為:(i) 按鈕),請右鍵單擊模型名稱,然后選擇“查看原始元數(shù)據(jù)”
修復(fù)了清除 Sampling Settings 中的 Top K 會觸發(fā)錯(cuò)誤的 bug
版本 1
新增內(nèi)容:TTL - 可選擇在一定時(shí)間后自動(dòng)卸載未使用的 API 模型(請求有效負(fù)載中的字段)ttl
對于命令行使用:lms load --ttl <seconds>
API 參考:https://lmstudio.ai/docs/api/ttl-and-auto-evict
新增內(nèi)容:自動(dòng)驅(qū)逐 - 可選擇在加載新 API 模型之前自動(dòng)卸載之前加載的 API 模型(在應(yīng)用程序設(shè)置中控制)
修復(fù)了模型思維塊內(nèi)的方程式有時(shí)會在塊下方生成空白空間的錯(cuò)誤
修復(fù)了 Toast 通知中的文本不可滾動(dòng)的問題
修復(fù)了取消選中和選中 Structured Output JSON 會使架構(gòu)值消失的錯(cuò)誤
修復(fù)了生成時(shí)自動(dòng)滾動(dòng)有時(shí)不允許向上滾動(dòng)的錯(cuò)誤
[開發(fā)商]將日志記錄選項(xiàng)移動(dòng)到 Developer Logs 面板標(biāo)題(••• 菜單)
修復(fù)了聊天外觀字體大小選項(xiàng)在思考區(qū)塊中不縮放文本的問題
下載地址
人氣軟件

Microsoft Office 2024 LTSC v18827.20150 中文專業(yè)增強(qiáng)版(附安
WPS 2021 V11.1.0.11045 綠色版
PDFgear(PDF編輯工具箱) V2.1.12 安裝免費(fèi)版
WPS Office 2024 V12.1.0.22529 中文免費(fèi)綠色便攜版
WPS Office 2025 V12.1.0.22529 官方最新正式版
微軟Office LTSC 2021專業(yè)增強(qiáng)版 簡體中文批量許可版 2024年09月
Microsoft 365/Office 2024專業(yè)增強(qiáng)版/極簡版 2408 VL 中文完整
Office 2021 LTSC ProPlus VL v2108 Build14334.20296 中/英文專
文獻(xiàn)管理軟件 EndNote X9.3.3 中科大批量授權(quán)版(中文一鍵直裝特
Office AI助手(增強(qiáng)ExcelAI功能) v0.5.6 安裝免費(fèi)版
相關(guān)文章
-
如何實(shí)現(xiàn)deepseek本地部署?詳細(xì)教學(xué)deepseek本地環(huán)境搭建及設(shè)置本文將詳細(xì)介紹deepseek本地部署的完整步驟,包括從環(huán)境配置到軟件安裝的全程指南,我們將細(xì)節(jié)和注意點(diǎn)做了介紹,確保你能夠在短時(shí)間內(nèi)完成高效、安全的配置,快速啟動(dòng)Deep...
-
DeepSeek新手必看! 最全的DeepSeek訪問以及使用方法DeepSeek是一款多模態(tài)AI工具,融合了文本生成、圖像創(chuàng)作等多種功能,致力于為用戶提供無縫的創(chuàng)作體驗(yàn),該怎么使用DeepSeek呢?詳細(xì)請看下文DeepSeek實(shí)操指南...
下載聲明
☉ 解壓密碼:www.dbjr.com.cn 就是本站主域名,希望大家看清楚,[ 分享碼的獲取方法 ]可以參考這篇文章
☉ 推薦使用 [ 迅雷 ] 下載,使用 [ WinRAR v5 ] 以上版本解壓本站軟件。
☉ 如果這個(gè)軟件總是不能下載的請?jiān)谠u論中留言,我們會盡快修復(fù),謝謝!
☉ 下載本站資源,如果服務(wù)器暫不能下載請過一段時(shí)間重試!或者多試試幾個(gè)下載地址
☉ 如果遇到什么問題,請?jiān)u論留言,我們定會解決問題,謝謝大家支持!
☉ 本站提供的一些商業(yè)軟件是供學(xué)習(xí)研究之用,如用于商業(yè)用途,請購買正版。
☉ 本站提供的LM Studio本地部署大模型(支持DeepSeek-R1) v0.3.27-4 中文綠色版資源來源互聯(lián)網(wǎng),版權(quán)歸該下載資源的合法擁有者所有。



