LM Studio是一款非常受欢迎的本地大语言模型(LLM)运行工具,它让用户可以在自己的电脑上私密、免费地下载、运行和体验各种开源大模型,无需依赖云服务,也不需要复杂的命令行环境。
核心定位
LM Studio 的口号是:“Local AI, on Your Computer”
简单来说,就是把像 Llama、Qwen、Gemma、DeepSeek、Mistral 这样强大的开源模型直接跑在你自己的电脑上,数据完全本地,隐私有保障。
主要功能
- 图形化界面(非常友好):下载模型 → 加载模型 → 直接聊天,几乎零门槛
- 内置聊天界面:类似 ChatGPT 的对话体验
- 模型搜索与下载:直接从 Hugging Face 搜索和下载 GGUF 格式的模型(支持绝大部分主流开源模型)
- OpenAI 兼容的本地 API:可以启动一个 localhost 的 API server,其他工具/代码可以像调用 ChatGPT 一样调用你的本地模型
- 支持 GPU 加速:Apple Silicon (M 系列)、NVIDIA RTX、AMD Radeon 等都能很好利用
- Anthropic API 兼容(较新版本):可以连接 Claude Code 等工具
- 无 GUI 部署模式(llmster):适合服务器、云端、CI 环境 headless 运行
- SDK 支持:提供 Python (lmstudio-python) 和 TypeScript/JavaScript (lmstudio-js) 的开发库
支持的主流模型
- Qwen3 / Qwen 系列
- Gemma 3
- DeepSeek
- gpt-oss(可能是开源模拟 GPT 系列)
- Llama 系列
- Mistral / Mixtral
- Phi 系列 ……几乎所有 GGUF 格式的流行开源模型都支持
适用平台
- macOS(M 系列芯片最佳体验)
- Windows
- Linux
- 服务器无界面部署(llmster)
为什么很多人喜欢用 LM Studio?
- 简单:安装后几分钟就能跑起一个模型聊天
- 隐私:所有数据都在本地,不上传到任何云端
- 免费:个人和商用(工作使用)都是免费的
- 灵活:既适合小白直接聊天,也适合开发者通过 API 集成到自己的项目
- 模型更新快:新模型出来后很快就能在 LM Studio 里找到并运行
一句话总结:
LM Studio 是目前最容易上手、最好用的本地 LLM 一站式桌面客户端,特别适合想摆脱云端、追求隐私、又不想折腾命令行的人。