使用 Cline 设置 LM Studio 进行本地 AI 模型执行的快速指南。
使用 LM Studio 与 Cline 在本地运行 AI 模型。
支持 AVX2 的 Windows、macOS 或 Linux 计算机
在 VS Code 中安装了 Cline
访问 lmstudio.aiarrow-up-right
为你的操作系统下载并安装
打开已安装的应用程序
你将在左侧看到四个选项卡:聊天、开发者(你将在此启动服务器)、我的模型(你下载的模型存储在此)、发现(添加新模型)
浏览"发现"页面
选择并下载你偏好的模型
等待下载完成
导航到开发者选项卡
切换服务器开关到"运行中"
注意:服务器将在 http://localhost:1234 运行
http://localhost:1234
打开 VS Code
单击 Cline 设置图标
选择"LM Studio"作为 API 提供商
从可用选项中选择你的模型
为了与 Cline 获得最佳体验,请使用 Qwen3 Coder 30B A3B Instruct。该模型提供强大的编码性能和可靠的工具使用。
在开发者选项卡中加载模型后,配置这些设置:
上下文长度:设置为 262,144(模型的最大值)
KV 缓存量化:保持未选中(对于一致性能至关重要)
Flash Attention:如果可用则启用(提高性能)
根据你的 RAM 选择量化:
32GB RAM:使用 4-bit 量化(~17GB 下载)
64GB RAM:使用 8-bit 量化(~32GB 下载)以获得更好的质量
128GB+ RAM:考虑全精度或更大的模型
Mac (Apple Silicon):使用 MLX 格式以获得优化性能
Windows/Linux:使用 GGUF 格式
为了与本地模型获得最佳性能,请在 Cline 设置中启用紧凑提示。这在保持核心功能的同时将提示大小减少 90%。
导航到 Cline 设置 → 功能 → 使用紧凑提示并将其切换为开启。
在使用 Cline 之前启动 LM Studio
在后台保持 LM Studio 运行
第一次模型下载可能需要几分钟,具体取决于大小
模型在下载后本地存储
如果 Cline 无法连接到 LM Studio:
验证 LM Studio 服务器正在运行(检查开发者选项卡)
确保模型已加载
检查你的系统是否满足硬件要求
Last updated 7 days ago