DeepSeek 作为具备多轮推理能力的开源大语言模型,以高性能、低成本、易部署的特性成为智能应用开发的理想基座。它的先进算法架构和”反思链”能力,让 AI 对话交互效果几乎已经追平 OpenAI 旗下的 o1 模型。更关键的是,它是开源的,每个人都可以拥有更智能与自然的 AI 大模型! 这意味着你完全可以在自己的服务器环境上部署 DeepSeek 服务,在对话过程中无惧隐私泄露的风险,你的数据你说了算。对于有进一步开发能力的用户,你还可以为它添加文件分析(RAG 功能)、在线搜索以及工具使用能力。 本文将为你完整介绍如何在 Google Cloud 购买服务器、DeepSeek 服务、部署 LM Studio 软件,帮助你快速搭建出专属的 AI 助手。

前置准备

  • VPS / GPU Server
硬件环境:
  • CPU >= 2 Core
  • 显存/RAM ≥ 16 GiB(推荐)
软件环境:
  • Docker
  • Ollama

1. 购买服务器资源

访问 GCP,选择 Compute Engine 服务。 选择内存 ≥ 16GB 的服务器配置。建议安装 Ubuntu 操作系统。 为了避免在后续安装应用时可能面临的访问异常,建议打开服务器的防火墙。轻点 “VPC 网络” → 防火墙 → “添加防火墙规则”
  • 目标:网络中的所有实例
  • 来源 IPv4 范围,填写 0.0.0.0/0
  • 协议和端口,选择 TCP 连接,端口范围填写 1000-20000。端口是服务器中常见的一个概念,ollama 将默认占用 11434 端口的服务,后续将 AI 应用分享给他人时,需确保端口可以被公网访问。
最后点击 “创建”。

2. 安装 Docker 以及 Ollama

Docker 是一个便捷的容器拉取平台,你可以将它理解为 Linux 服务器中的 App Store,它会帮助我们非常便捷的管理需要下载的软件和应用程序。安装命令:
docker version > /dev/null || curl -fsSL get.docker.com | bash
Ollama 是一个便捷的开源大模型管理平台,帮助开发者无缝部署大型语言模型 (LLM),例如 DeepSeek、Llama、Mistral 等。Ollama 均提供大模型一键部署服务,所有 LLM 的对话和使用数据均会保存在本地机器内,在数据隐私和安全方面提供全面保护。 点击示例中的”连接 SSH” 运行以下命令:
curl -fsSL https://ollama.com/install.sh | sh
等待安装完成。 输入 ollama -v 命令确认是否安装成功。(如果成功将会输出版本号)

3. 安装 DeepSeek

根据实际的环境配置,选择合适的 DeepSeek 尺寸模型进行部署。 运行模型很简单,确定好想要的模型后,复制对应的命令到你的终端并执行。 根据需求,使用以下命令下载不同型号的 DeepSeek-R1 模型: DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
该命令会自动下载并加载模型,下载时间取决于网络速度和模型大小。 首次安装推荐安装 7B 尺寸模型。 安装完成后,你在终端输入命令就可以和 AI 进行对话。但这并不好用对吧?并且也不利于分享给他人一起使用。一个比较理想的状态有一个对话网页,这样方便使用和分享你的私人 AI 助手。

4. 安装用户界面 — Open WebUI

Open WebUI 是一个可扩展、功能丰富、用户友好的私有部署 AI 平台,它无缝支持各种 AI 大模型,并内置 RAG 推理引擎,这意味着它可以调用私有 AI 模型帮助你分析文件,是一个强大的人工智能部署解决方案。 当你已在服务器上部署 ollama 时,可以使用以下命令安装 Open WebUI,它将自动建立与 Ollama 服务器的连接,无需额外复杂的配置。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
输入命令,等待安装完成: 访问链接:http://your_server_ip:3050/ 即可进入 WebUI 的初始化页面,稍等片刻后,按照提示输入用户名、邮箱和密码完成初始化。 Bingo,你得到了你的专属私人 AI 助手,并且内置图片识别助手、文件分析功能、语音聊天等基础功能。接下来你可以自己多多尝试,自由探索 AI 时代下的互联网应用! 如果你想要将 IP 与域名绑定,把它变成自己的服务,亦或是需要寻求本地部署支持,欢迎点击网页上的联系按钮,我们将为你提供付费支持。