阿里最强小钢炮上线!Qwen3.6-35B-A3B+OpenClaw本地部署全记录

张开发
2026/4/21 11:20:30 15 分钟阅读

分享文章

阿里最强小钢炮上线!Qwen3.6-35B-A3B+OpenClaw本地部署全记录
性能强劲的新一代小钢炮2026年4月16日阿里正式发布高效轻量级开源模型Qwen3.6-35B-A3B。该模型总参数量为350亿采用稀疏MoE混合专家架构凭借仅30亿激活参数 便可与Qwen3.5-27B、Gemma4等稠密模型一较高下。评测数据显示Qwen3.6-35B-A3B在多项主流基准测试中与Qwen3.5-27B表现十分接近并在中文语义理解C-Eval上显著优于Gemma4模型。Ollama自v0.17版本起支持OpenClaw部署实测仍需较多手动配置。考虑到Qwen新模型的优异性能以及本地低成本运行OpenClaw的需求本文将对基于Ollama的本地化部署进行详细实测。模型在Ollama上的显示大小为24GB实际占用约23GB处于消费级显卡的能力边界非常适合本地部署尝鲜。安装与环境配置环境说明系统Windows 11工具WSL (Ubuntu)、Ollama部署步骤硬件检查按Win R输入dxdiag确认内存与显卡配置满足运行要求。安装WSLOpenClaw是Linux原生应用建议先配置WSL环境。在PowerShell中执行wsl --install -d Ubuntu解释一下WSL 是“Windows Subsystem for Linux”的缩写即Windows的Linux子系统是一个由微软开发的兼容层允许用户在Windows上原生运行Linux语句和文件而无需传统虚拟机或双系统。-d Ubuntu参数则指定在该子系统上安装Ubuntu发行版​作为具体的Linux环境。安装依赖由于Ollama的模型文件都使用zstdZstandardFacebook开源的一种高速数据压缩算法工具格式进行压缩。因此需要在Linux终端模式下先安装zstdsudo apt-get install zstd安装 Ollamacurl -fsSL https://ollama.ai/install.sh | sh注意安装耗时较长请确保设备不休眠无断点续传功能。拉取模型ollama run qwen3.6:35b-a3b安装完成后会进入对话界面输入/?可查看操作帮助实测模型具备基础代码能力但仍存在少量“幻觉”现象。6. 安装 Node.js通过NVM# 安装 NVM curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash # 刷新配置 source ~/.bashrc # 安装LTS版本Node.js nvm install --lts # 验证安装 node -v7. 部署 OpenClaw# 方式一Ollama 启动 ollama launch openclaw # 方式二官方脚本推荐 curl -fsSL https://openclaw.ai/install.sh | bash安装过程中如有需要添加的依赖跟着引导一直选择“Yes”即可。最终会输出一个长串dashboard url其中“token”后面的内容为OpenClaw的token值需要记下来。如果没有出现token值可运行以下命令命令行窗口会打印出url值即可看到tokenopenclaw dashboard9. 确认服务已启动在浏览器中打开dashboard url若需要手动连接将token值输入后点击连接即可进入“概览”面板看到如下页面说明服务已正常启动。创建飞书机器人进入飞书开放平台https://open.feishu.cn/?langzh-CN执行以下步骤进入开发者后台创建企业自建应用填写应用名称和简介添加应用能力机器人在权限管理页面选择“批量导入/导出权限”清空原代码并粘贴以下代码{ scopes: { tenant: [ im:message.group_at_msg:readonly, im:message.p2p_msg:readonly, im:message:readonly, im:message:send_as_bot, im:resource ], user: [] } }确认批量导入权限为聊天若需要群聊、云文档等权限后续可按需开通4. 进入“事件与回调”“订阅方式”选择“使用长连接接收事件 (WebSocket)”并添加事件输入“im.message.receive_v1”接收消息5. 创建并发布应用6. 在飞书聊天界面可以搜索到刚才创建的机器人但先别着急对话 还需要在OpenClaw中将飞书机器人配置进来。OpenClaw绑定飞书机器人命令行窗口输入以下命令安装飞书官方插件随后屏幕会出现一个二维码npx -y larksuite/openclaw-lark install使用飞书扫码后可以创建机器人或添加已有机器人在这里选择我们刚才在飞书中配置好的机器人。回到飞书聊天界面发送消息目前 Qwen3.6-35B-A3B 在本地环境的响应速度不太理想。部署流程虽已打通但从“能跑通”到“高效生产力”仍需一条漫长的养虾之路。后续我会针对模型调用稳定性、效率以及OpenClaw高效使用等实际痛点持续分享调优思路与实践。参考资料Qwen3.6-35B-A3B智能体编程利器现已开源https://qwen.ai/blog?idqwen3.6-35b-a3b

更多文章