Pixel Epic · Wisdom Terminal 快速部署教程:3步完成Ubuntu环境下的模型服务搭建

张开发
2026/4/15 8:37:30 15 分钟阅读

分享文章

Pixel Epic · Wisdom Terminal 快速部署教程:3步完成Ubuntu环境下的模型服务搭建
Pixel Epic · Wisdom Terminal 快速部署教程3步完成Ubuntu环境下的模型服务搭建1. 准备工作环境检查与配置在开始部署之前我们需要确保服务器环境满足基本要求。就像装修房子前要检查水电一样这一步能避免后续出现各种兼容性问题。首先确认你的Ubuntu版本是18.04或更高推荐20.04 LTS。打开终端运行以下命令检查系统信息lsb_release -a接下来检查GPU驱动是否安装正确。这个模型需要NVIDIA显卡支持就像高性能游戏需要独立显卡一样。运行nvidia-smi如果看到显卡信息表格类似下面这样说明驱动正常----------------------------------------------------------------------------- | NVIDIA-SMI 515.65.01 Driver Version: 515.65.01 CUDA Version: 11.7 | |--------------------------------------------------------------------------- | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | | | | MIG M. | || | 0 NVIDIA GeForce ... On | 00000000:01:00.0 Off | N/A | | 30% 45C P8 15W / 250W | 0MiB / 12288MiB | 0% Default | | | | N/A | ---------------------------------------------------------------------------如果提示命令未找到需要先安装NVIDIA驱动。可以运行sudo apt install nvidia-driver-515最后检查Docker是否安装。这个模型会运行在容器环境中就像把应用打包在一个标准化箱子里。运行docker --version如果没有安装可以通过以下命令快速安装sudo apt-get update sudo apt-get install docker.io2. 核心部署步骤镜像启动与配置现在进入正题就像组装电脑一样我们要把各个部件正确连接起来。2.1 获取镜像文件登录星图GPU平台控制台在镜像市场搜索Pixel Epic Wisdom Terminal选择最新版本。点击一键部署按钮系统会自动生成专属的部署命令类似这样docker run -itd --gpus all -p 7860:7860 -p 8000:8000 \ -v /data/wisdom:/app/data \ --name wisdom-terminal \ registry.cn-hangzhou.aliyuncs.com/starry/pixel-epic-wisdom:latest这条命令做了几件重要的事--gpus all让容器可以使用GPU-p 7860:7860将容器的7860端口映射到主机Web界面-p 8000:8000API服务端口-v /data/wisdom:/app/data把主机目录挂载到容器用于持久化数据2.2 启动服务复制平台提供的命令到终端执行。第一次运行时会下载镜像速度取决于你的网络通常需要5-15分钟。看到类似下面的输出表示启动成功[2023-08-15 14:20:33 0800] [1] [INFO] Application startup complete. [2023-08-15 14:20:33 0800] [1] [INFO] Uvicorn running on http://0.0.0.0:80002.3 验证服务打开浏览器访问http://你的服务器IP:7860应该能看到Web界面。如果无法访问可能是防火墙阻止了端口。在Ubuntu上可以临时开放端口sudo ufw allow 7860 sudo ufw allow 80003. 测试与问题排查3.1 首次对话测试在Web界面的输入框尝试提问比如请用简单的语言解释量子力学。如果一切正常几秒内就能得到流畅的回答。如果想通过API调用可以用curl测试curl -X POST http://localhost:8000/api/v1/chat \ -H Content-Type: application/json \ -d {message:你好你是谁}应该会得到类似这样的JSON响应{ response: 我是Wisdom Terminal一个基于大模型的智能助手..., status: success }3.2 常见问题解决问题1GPU内存不足如果遇到CUDA out of memory错误可以尝试减小模型加载的精度docker exec -it wisdom-terminal bash # 进入容器后修改启动参数 export LOAD_IN_8BITtrue python app.py问题2端口冲突如果7860或8000端口被占用可以修改docker run命令中的端口映射比如改成-p 7861:7860 -p 8001:8000。问题3权限问题如果遇到permission denied错误尝试给数据目录赋权sudo chmod -R 777 /data/wisdom4. 总结与下一步整个过程走下来部署其实比想象中简单。主要就是三个关键步骤检查环境→启动镜像→测试验证。就像组装乐高一样只要零件齐全GPU驱动、Docker按照说明书部署命令一步步来很快就能搭建好自己的AI服务。实际使用中你可能会遇到一些小问题但大部分都能通过调整参数或查看日志解决。建议先从小规模测试开始熟悉后再考虑生产环境部署。如果想进一步提升性能可以研究下模型量化或API优化不过那都是后话了。现在你的Ubuntu服务器上已经运行着一个功能完整的AI助手了。接下来可以尝试接入自己的应用或者探索更复杂的对话场景。这个模型的潜力很大就看你怎么发挥创意了。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

更多文章