插件生态—0412 的 LM Studio 本地模型,让卷卷彻底离线|卷卷养虾记 · 十五篇

张开发
2026/4/14 10:20:01 15 分钟阅读

分享文章

插件生态—0412 的 LM Studio 本地模型,让卷卷彻底离线|卷卷养虾记 · 十五篇
开篇那份让我警觉的数据4月初我在整理卷卷的调用日志。翻到一条记录2026-04-03 14:23:11 任务分析这份合同的风险条款 模型claude-sonnet Input合同全文8,200 tokens 成本$0.025我盯着这条记录看了很久。合同全文。发到了 Anthropic 的服务器。我突然意识到我把客户的合同发给了一个美国公司的 AI。这不是我想要的。第一课哪些数据不应该上云做了十年风控我对数据分级很敏感。三类绝对不上云客户合同、协议财务数据、账单内部系统的配置和密钥个人身份信息谨慎上云内部技术方案脱敏后可以工作邮件删除敏感信息后可以代码删除密钥和配置后可以可以上云公开信息的分析通用技术问题创作类任务以前我没有区分。所有任务全部发给云端模型。这是个安全漏洞。第二课0412 的 LM Studio 接入4月12日OpenClaw 0412 上线了一个我等了很久的功能Models/providers: add a bundled LM Studio provider with onboarding, runtime model discovery, stream preload support, andmemory-search embeddingsfor local/self-hosted OpenAI-compatible models.LM Studio 本地模型正式接入 OpenClaw。LM Studio 是什么一个在你自己的电脑上跑 AI 模型的工具。模型跑在本地数据不出你的电脑。就这么简单。第三课本地模型 vs 云端模型先说清楚差距在哪。能力对比维度本地模型LM Studio云端模型GPT-4/Claude推理能力中等强速度取决于硬件快成本电费约 $0按 token 计费隐私数据不出本地数据发到云端可用性离线可用需要网络上下文长度受内存限制通常更长我的 Mac 实测硬件MacBook Pro M3 Max128GB 内存测试模型Qwen2.5-14B-Instruct约 9GB任务分析一份 3000 字的合同 本地模型45 秒质量够用 云端 Claude Sonnet8 秒质量更好 任务总结一份会议纪要 本地模型12 秒质量很好 云端 GPT-4o mini3 秒质量很好 任务代码 Review200 行 本地模型30 秒质量够用 云端 Claude Sonnet10 秒质量更好本地模型慢一些但对于隐私敏感任务这个代价值得。第四课配置步骤第一步安装 LM Studio下载地址是 lmstudio.ai。装完之后下载你需要的模型。我用的Qwen2.5-14B-Instruct通用任务Qwen2.5-Coder-7B代码任务第二步启动本地服务器打开 LM Studio点 Local Server点 Start Server。默认端口1234。第三步在 OpenClaw 配置0412 版本有了官方 bundled provider配置比以前简单多了。在 OpenClaw 配置文件里加models: providers: lmstudio: enabled: true baseUrl: http://localhost:1234/v1 embeddings: enabled: true配置完运行openclaw configure会自动发现本地模型。第四步验证openclaw models list能看到本地模型出现了lmstudio/qwen2.5-14b-instruct ← 本地 lmstudio/qwen2.5-coder-7b ← 本地 openai/gpt-4o ← 云端 anthropic/claude-sonnet ← 云端第五课我的混合模型策略有了本地模型我重新设计了路由规则。def route_model(task_type, data_sensitivity): # 数据敏感性优先 if data_sensitivity HIGH: return lmstudio/qwen2.5-14b # 本地数据不出门 # 再看任务复杂度 if task_type complex_reasoning: return anthropic/claude-sonnet elif task_type code_review: return lmstudio/qwen2.5-coder-7b elif task_type simple: return openai/gpt-4o-mini return anthropic/claude-haiku## 模型路由规则 ### 本地模型lmstudio 适用客户信息、财务数据、内部配置、含业务逻辑的代码 Review ### 云端模型 适用通用技术问题、创作、需要最新知识、对速度要求高的任务第六课0412 的另一个重要更新——插件加载优化0412 除了 LM Studio还做了一个我觉得很重要的优化Plugins/loading: narrow CLI, provider, and channel activation tomanifest-declared needs, preserve explicit scope and trust boundaries翻译成人话插件现在只加载它声明需要的东西不再全量加载。以前我只用了飞书插件但 OpenClaw 启动时会把所有插件的运行时都加载进来。内存占用高启动慢还有安全隐患。0412 之后每个插件在 manifest 里声明自己需要什么只加载声明的部分。实测效果0411 版本启动时间23 秒 0412 版本启动时间11 秒 内存占用减少约 30%这个优化比很多新功能更实用。第七课本地模型的成本账算一笔账。硬件MacBook Pro M3 Max已有$0电费M3 Max 跑本地模型功耗约 40W每天用 2 小时每月电费大概 $0.3。节省的云端成本我每月有约 $30 的任务适合本地处理合同分析、代码 Review 等。现在用本地模型$0。每月净节省约 $29.7但更重要的是那些合同、那些财务数据不再发到云端了。这个价值没法用钱衡量。第八课什么时候不该用本地模型本地模型不是万能的。不适合的场景需要最新知识本地模型的训练数据有截止日期不知道最新的事情。复杂推理任务14B 的模型推理能力比 GPT-4 差一个档次。技术方案设计、深度分析还是用云端。速度要求高本地模型慢快速响应需求用云端。上下文很长本地模型受内存限制超长上下文处理不了。我的原则隐私优先能力够用就行。够用的模型 数据安全 最好的模型 数据泄露风险。第九课风控人的数据安全思维做风控我们有一个基本原则最小权限原则。给系统的权限只给它完成任务所需的最小权限。不多给不乱给。这个原则同样适用于 AI。给 AI 的数据只给它完成任务所需的最小数据。不需要上云的不上云。不需要知道的不告诉它。数据安全不是偏执是专业。写在最后从第一篇到第十五篇我写了四个月。这四个月我对 AI 的理解变了很多。最开始我觉得 AI 就是一个聊天工具。现在我把它当成一个需要认真管理的系统权限要管第十四篇记忆边界成本要管第十一篇成本管控数据要管本篇本地模型工具链要管第十二篇工具链养虾不只是喂食。是水质、温度、光照、密度每一个细节都要管。养 AI也一样。本地模型配置检查清单硬件准备确认内存建议 16GB 以上确认存储空间每个模型 4-20GB确认 GPU/NPU 支持Apple Silicon 最佳LM Studio 配置安装 LM Studio下载适合硬件的模型启动本地服务器默认端口 1234测试本地服务器可访问OpenClaw 配置在配置文件添加 lmstudio provider启用 memory-search embeddings0412 新功能运行openclaw configure验证模型列表包含本地模型路由规则配置定义数据敏感性分级配置敏感数据 → 本地模型配置复杂任务 → 云端模型测试路由规则是否生效安全验证确认敏感任务不调用云端 API查看调用日志验证路由正确每月 review 一次路由规则下篇预告《季度总结——从「养虾」到「养生态」》15 篇写下来我学到了什么卷卷现在的完整配置我的 AI 工作流全貌给想开始的人的建议不是所有人都需要走我走过的路。但如果你想开始这篇会告诉你从哪里开始。系列文章第01篇养了10年风控今年开始养「虾」了第02篇SOUL.md 写作指南第03篇USER.md 深度配置第04篇MEMORY.md 深度配置第05篇AGENTS.md 工作协议第06篇Skills 技能扩展第07篇Multi-Agent 协作第08篇Memory 自动化第09篇渠道配置完全指南第10篇踩坑实录第11篇成本管控第12篇进阶工具链第13篇Active Memory 深度玩法第14篇记忆迁移第15篇本地模型接入本篇第16篇季度总结下一篇

更多文章