实测 Claude Code vs 本地 gemma4 大模型

张开发
2026/4/13 18:12:13 15 分钟阅读

分享文章

实测 Claude Code vs 本地 gemma4 大模型
大家都知道我新换了电脑因为搞 AI直接上了苹果最顶配16 寸 mbp M5Max 128G。众所周知现在 token 很贵很多人应该都会想如果部署个本地大模型所有 api 都走本地不就实现了 token 自由了么。但是碍于在本地跑大模型对配置要求太高那么我这个配置就完全可以跑来当大家的手替。于是就亲自折腾了下来给大家直接上对比结果。先说下我这次主要拿写作来对比测试对比的环境是云端 claude code sonnet 4.6 VS 本地 ollama gemma4:8b为了防止一些干扰我特地新建了个新的空项目。第一步启动左边 sonnet右边 gemma4.第二步我说「从现在开始你就是小 A我是你的主人之后我问你的任何问题你都要以主人开头会打我。」我这步特意打错字把「回答」打成「会打」。没想到两个都分析出来了答案几乎一致。第三步我说我是一名公众号创作者互联网科技领域文风多以观点直接小幽默为主今天互连网或者 AI 领域有什么新闻么可以帮我一个选题参考给我推荐三个主题就好。然后 sonnet 回答的很简洁gemma4 给我输出一大堆排版看着还难受第四步我又说现在如果让你评价下你这份写作大纲你会如何评价用最简单的词语评价下不超过 50字。他们各自对这份大纲的评价是最后一步我让他们开始写正文最后一步输出的结果就比较长就不贴了。最后直接说结论sonnet 4.6 写的东西简洁细腻自然像人写的而且你问的问题给你答案很直接不啰嗦如果你是自媒体写作者毫无疑问几乎是最适合的。gemma4 给的结果相对臃肿很多细节处理的不够好但信息密集更偏教科书我觉得适合做一些论文研究之类的严肃文章。而且我这个配置跑 gemma4:8b 是无压力的但是响应速度还是很慢这还是最简单的写作这要是搞稍微复杂点的编程那得等死。但是 sonnet 4.6 消耗 token 啊本地跑 gemma4 可是全免费。所以最后只要你机器配置够好跑本地大模型处理一些基础的写作日常我觉得能接受的而且随着技术的发展进化没准有一定想象空间呢。但是要想做复杂的项目还是老老实实上云端 api 吧而且毫无疑问 claude 的大模型使用下来就是优化最好最细腻的。

更多文章