Ollama安装使用CC Switch 配置Claude code使用

张开发
2026/4/10 1:41:12 15 分钟阅读

分享文章

Ollama安装使用CC Switch 配置Claude code使用
由于 Ollama 的 API 协议与 Anthropic 官方不完全兼容不能直接把 CC Switch 的 API 地址指向 Ollama需要一个协议转换层。根据搜索结果推荐使用 LiteLLM 来解决这个问题核心原理CC Switch → LiteLLM(协议转换)→ Ollama(192.168.14.150:11434)→ Gemma4E2BLiteLLM 会启动一个与 Anthropic API 兼容的代理服务器CC Switch 连接这个代理就能间接调用你的本地 Ollama 模型了。明白了你已经成功用setx把 Ollama 服务开放给了局域网IP192.168.14.150现在想让 CC Switch 也能用上这个本地的 Gemma 4 E2B 模型。由于 Ollama 的 API 协议与 Anthropic 官方不完全兼容不能直接把 CC Switch 的 API 地址指向 Ollama需要一个协议转换层。根据搜索结果推荐使用LiteLLM来解决这个问题。 核心原理CC Switch → LiteLLM (协议转换) → Ollama (192.168.14.150:11434) → Gemma 4 E2BLiteLLM 会启动一个与 Anthropic API 兼容的代理服务器CC Switch 连接这个代理就能间接调用你的本地 Ollama 模型了。 第一步在 Ollama 所在电脑上安装 LiteLLM在你运行 Ollama 的电脑IP192.168.14.150上操作。1. 确认 Python 环境python --version # 需要 Python 3.8如果没有 Python去 python.org 下载安装。2. 安装 LiteLLMpip install litellm第一步安装完整的 LiteLLM带代理依赖在命令提示符中执行pip install litellm[proxy]或者如果上一条命令遇到引号问题用这个pip install litellm[proxy]注意如果使用的是 PowerShell需要用反引号转义pip install litellm[proxy]第二步验证安装pip show litellm确认版本信息正常显示。第三步重新启动 LiteLLMlitellm --config litellm_config.yaml --port 4000 --host 0.0.0.0 如果安装后仍有问题情况一网络问题导致依赖下载失败你之前的错误中还有一条警告Failed to fetch remote model cost map from https://raw.githubusercontent.com/... [Errno 11004] getaddrinfo failed这说明网络连接 GitHub 不稳定。可以使用国内镜像源安装依赖pip install litellm[proxy] -i https://pypi.tuna.tsinghua.edu.cn/simple或者设置代理如果你有代理工具set HTTP_PROXYhttp://127.0.0.1:你的代理端口 set HTTPS_PROXYhttp://127.0.0.1:你的代理端口 pip install litellm[proxy]情况二手动安装缺失的 websockets 模块如果安装litellm[proxy]后仍然提示缺少websockets可以单独安装pip install websockets情况三Python 环境问题你的 Python 安装在D:\Android\Python\Python311确保这个路径在系统 PATH 中并且 pip 安装的包对应的是同一个 Pythonwhere python where pip确保两个命令显示的路径都在D:\Android\Python\Python311目录下。 完整的正确安装流程推荐为了避免依赖问题建议按以下顺序重新安装# 1. 先卸载现有的 pip uninstall litellm -y # 2. 使用国内镜像源安装完整版 pip install litellm[proxy] -i https://pypi.tuna.tsinghua.edu.cn/simple # 3. 验证安装 python -c import litellm; print(litellm.__version__) # 4. 启动服务 litellm --config litellm_config.yaml --port 4000 --host 0.0.0.0 成功启动的标志当你看到类似以下的输出时说明 LiteLLM 代理已成功运行Proxy Server Started on http://0.0.0.0:4000然后在另一个终端测试curl http://127.0.0.1:4000/v1/models应该能返回包含gemma4-e2b的模型列表。 第二步启动 LiteLLM 代理方法一临时测试推荐先试这个litellm --model ollama/gemma4:e2b --api_base http://192.168.14.150:11434 --port 4000参数说明参数含义--model ollama/gemma4:e2b指定使用 Ollama 的 gemma4:e2b 模型--api_baseOllama 服务的地址--port 4000LiteLLM 代理监听的端口启动成功后你会看到类似输出Proxy Server Started on http://0.0.0.0:4000方法二使用配置文件正式使用更稳定创建一个配置文件litellm_config.yamlmodel_list:-model_name:gemma4-e2blitellm_params:model:ollama/gemma4:e2bapi_base:http://127.0.0.1:11434litellm_settings:drop_params:trueset_verbose:false然后用配置文件启动litellm --config litellm_config.yaml --port 4000 第三步配置 CC Switch 连接 LiteLLM关键信息确认项目值LiteLLM 代理地址http://192.168.14.150:4000API Key任意ollama-localLiteLLM 不校验填什么都行模型名称配置文件中填gemma4-e2b或用ollama/gemma4:e2b在 CC Switch 中添加配置根据搜索结果CC Switch 支持两种配置方式方式 A图形界面配置推荐打开CC Switch应用选择Claude分组点击添加→自定义配置填写以下内容配置项填写内容API 地址http://192.168.14.150:4000API Keyollama-local任意值模型名称gemma4-e2b点击添加保存在配置列表中找到刚添加的配置点击启用方式 B直接修改配置文件如果 CC Switch 提供了配置文件方式找到~/.claude/apiConfigs.json添加{name:ollama-gemma4-local,config:{env:{ANTHROPIC_AUTH_TOKEN:ollama-local,ANTHROPIC_BASE_URL:http://192.168.14.150:4000},model:gemma4-e2b}} 第四步验证配置1. 测试 LiteLLM 代理是否正常在另一台电脑上或同一台电脑的新终端执行curl http://192.168.14.150:4000/v1/models应该返回模型列表。2. 测试 Claude Code / CC Switch 连接在终端中设置环境变量后启动 Claude Codeset ANTHROPIC_BASE_URLhttp://192.168.14.150:4000 set ANTHROPIC_AUTH_TOKENollama-local claude --model gemma4-e2b如果看到 Claude Code 正常响应说明配置成功。 常见问题问题解决方法LiteLLM 报错 “ollama not found”检查 Ollama 服务是否在运行ollama listCC Switch 连接超时检查防火墙是否开放了 4000 端口以及192.168.14.150是否在同一局域网模型响应异常Gemma 4 E2B 的 tool calling 能力有限简单对话没问题复杂任务可能表现不佳想永久保存 LiteLLM 服务用--config配置文件方式或用nssm将 LiteLLM 注册为 Windows 服务 完整架构图API 请求协议转换推理CC SwitchLiteLLMlocalhost:4000Ollama192.168.14.150:11434Gemma 4 E2BRTX 3050 4GB在 CC Switch 中添加配置根据搜索结果CC Switch 支持两种配置方式方式 A图形界面配置推荐打开 CC Switch 应用选择 Claude 分组点击 添加 → 自定义配置填写以下内容配置项 填写内容API 地址 http://192.168.14.150:4000API Key ollama-local任意值模型名称 gemma4-e2b点击 添加 保存在配置列表中找到刚添加的配置点击 启用方式 B直接修改配置文件如果 CC Switch 提供了配置文件方式找到 ~/.claude/apiConfigs.json添加{name:ollama-gemma4-local,config:{env:{ANTHROPIC_AUTH_TOKEN:ollama-local,ANTHROPIC_BASE_URL:http://192.168.14.150:4000},model:gemma4-e2b}}

更多文章