AI系列【仅供参考】:Ollama本地部署DeepSeek,5分钟打造免费个人AI助手

张开发
2026/4/21 10:59:17 15 分钟阅读

分享文章

AI系列【仅供参考】:Ollama本地部署DeepSeek,5分钟打造免费个人AI助手
Ollama本地部署DeepSeek5分钟打造免费个人AI助手Ollama本地部署DeepSeek5分钟打造免费个人AI助手安装Ollama下载并运行DeepSeek模型开始对话和进阶使用1、命令行直接对话2、使用更友好的图形界面3、通过API调用️常见问题与避坑指南1、常用命令2、下载速度慢或失败3、GPU显存不足CUDA out of memory4、如何让局域网内其他设备访问总结Ollama本地部署DeepSeek5分钟打造免费个人AI助手Ollama操作简单、免费开源、生态丰富、无需联网、数据不用传到任何云端服务器更安全。使用它本地部署DeepSeek是目前较简单、门槛较低的方式。我们先来了解一下Ollama是什么它是一个让你能在本地电脑上轻松运行和管理各种大语言模型LLM的工具你可以把它当成是一个专门为AI大模型设计的“运行环境”。在没有Ollama之前如果你想在本地运行一个像Llama或DeepSeek这样的模型通常需要手动配置复杂的Python环境、安装各种依赖库、处理显卡驱动等问题过程非常繁琐。而Ollama将这些复杂步骤全部封装了起来实现了极大的简化一键安装与运行、自动处理硬件加速、像管理软件一样管理模型。Ollama操作起来也很简单免费开源、生态丰富、无需联网数据不用传到任何云端服务器更安全。下面是本地部署DeepSeek全流程小白也能快速上手。安装OllamaOllama是运行大模型的“容器”支持Windows、Linux和macOS。Windows/macOS直接访问Ollama官网https://ollama.com/download下载对应的安装程序双击安装即可。Linux在终端中执行一键安装脚本curl -fsSL https://ollama.com/install.sh | sh安装完成后打开终端命令提示符或PowerShell输入ollama --version如果正确显示版本号就说明安装成下载并运行DeepSeek模型这是最关键的一步你需要根据你的电脑硬件配置选择合适的DeepSeek模型版本。如何选择模型版本DeepSeek提供了不同参数规模的模型参数越多智商越高但对电脑配置的要求也越高。你可以参考以下表格来选择模型版本参数量大约所需显存GPU适合的硬件deepseek-r1:1.5b15亿约1.5GB低配电脑、无独显适合快速体验deepseek-r1:7b/deepseek-coder:6.7b70亿约4-6GB主流配置如GTX 1060 6GB或RTX 3060deepseek-r1:14b140亿约8-12GB高配电脑如RTX 3080 10GB或更高deepseek-r1:32b/deepseek-r1:70b320亿/700亿24GB以上专业工作站通常需要多卡或顶级显卡如RTX 4090/A100选择好版本后打开终端输入以下命令即可自动下载并运行模型# 以运行 7B 参数模型为例你也可以将 7b 换成 1.5b 或 14bollama run deepseek-r1:7b首次运行系统会自动下载模型文件大小取决于你选择的版本请耐心等待。下载完成后你会直接进入一个对话界面可以开始与DeepSeek聊天了。开始对话和进阶使用1、命令行直接对话在终端输入ollama run deepseek-r1:7b后就可以直接输入问题进行对话。2、使用更友好的图形界面命令行界面不够友好推荐安装Chatbox或Open WebUI这类图形界面软件下面以Chatbox为例安装Chatbox访问https://chatboxai.app/zh下载安装。配置Chatbox安装后在设置里将“API类型”或“模型提供方”选为Ollama软件会自动检测并连接到本地运行的DeepSeek模型之后就可以像使用ChatGPT一样聊天了。3、通过API调用Ollama在运行时会自动启动一个API服务默认地址是http://localhost:11434。你可以通过Python代码来调用它非常方便地集成到你自己的应用中。import requests def query_deepseek(prompt): url http://localhost:11434/api/generatedata{model:deepseek-r1:7b,# 改成你下载的模型名prompt: prompt,stream: False}response requests.post(url,jsondata)returnresponse.json()[response]# 测试一下print(query_deepseek(用一句话介绍你自己))️常见问题与避坑指南1、常用命令功能命令示例说明运行模型ollama run deepseek-r1:7b下载若没有并启动一个模型进入对话列出本地模型ollama list查看你已经下载了哪些模型删除模型ollama rm deepseek-r1:7b删除不再需要的模型释放硬盘空间查看运行中的模型ollama ps查看当前正在运行的模型2、下载速度慢或失败由于网络原因模型下载可能会很慢。可以尝试更换网络环境或者使用一些GitHub加速方案来手动下载模型文件。3、GPU显存不足CUDA out of memory如果出现这个错误说明你选的模型对于你的显卡来说太大了。解决方法是换一个更小的模型版本如从7b换到1.5b。或者在运行命令后加上–cpu强制使用CPU运行但速度会变慢。4、如何让局域网内其他设备访问如果需要从另一台电脑或手机上访问你的DeepSeek服务需要配置Ollama允许外部访问在Linux/Mac上运行以下命令设置环境变量export OLLAMA_HOST0.0.0.0:11434或者在Windows上在系统环境变量中新建一个名为OLLAMA_HOST的变量值为0.0.0.0:11434。设置完后重启Ollama服务。之后其他设备就可以通过http://你的电脑IP:11434来访问了。总结通过上面的步骤相信大家已经成功在本地部署好DeepSeek了它可以为你提供本地AI助手在自己的电脑上拥有一个免费的、隐私安全的AI助手随时提问。代码辅助运行如deepseek-coder或codellama等代码模型帮助编写、解释或调试代码。应用开发通过它提供的API可以为自己的应用程序如本地知识库问答、AI工具添加AI功能而无需支付昂贵的云API费用瓢虫网Ollama本地部署DeepSeek5分钟打造免费个人AI助手

更多文章