データが外に漏れないことを前提に、あなたやあなたのチームだけが使える安全で高性能なAIアシスタントを作ってみませんか? 自分専用のAIを構築して、業務の効率化や学習支援に活用できる方法をご紹介します! この文章は、Google Cloud、Ollama、DeepSeek、Docker、Open WebUIを使って、自分だけのプライベートAIアシスタントを作る方法をわかりやすく説明します!

🔧 Step1: サーバーを準備しよう

  1. Google Cloud にアクセスしよう。
  2. 「Compute Engine」でサーバーを購入。メモリは16GB以上、OSはUbuntuがおすすめ!Storageは50GB。

🖥️ 必要なハードウェアについて

  • CPU: 2コア以上
    • AIモデルをスムーズに動かすには、複雑な処理を同時に行うために複数のコアが必要です。
  • メモリ: 16GB以上(推奨)
    • DeepSeekのような大規模なAIモデルを実行するには、十分なメモリが必要です。特に7Bや70Bモデルでは多くのデータを一時的に保持するため、16GB以上が推奨されます。
  • ストレージ: 50GB以上
    • モデルのダウンロードやアプリケーションのインストールには十分なディスク容量が必要です。特に複数のモデルを使用する場合、より多くのストレージが役立ちます。
  1. ファイアウォールを設定。
    • ファイアウォールの役割: ファイアウォールは、サーバーへの不正アクセスを防ぐためのセキュリティ機能です。必要なポートだけを開放し、他のアクセスを遮断することで、サーバーを安全に保ちます。
    • 設定内容:
      • 目的: ネットワーク内の全てのサーバー
      • 元のIPv4範囲: 0.0.0.0/0(どこからでも接続可能にする場合)
      • TCPポート: 1000-20000(特定のアプリケーションが使用する範囲を開放)

🌟 Step2: OllamaとDeepSeekをインストールしよう

なぜOllamaとDeepSeekをセットで選ぶのか?

Ollamaは、AIモデルを簡単に管理・実行できるプラットフォームで、DeepSeekのような高性能な言語モデルを効率的に動かすために最適な環境を提供します。DeepSeekは複雑な質問にも正確な回答を生成できる強力なAIモデルで、Ollamaを使うことでインストールや運用が簡単になり、誰でも手軽にAIの力を活用できるようになります。 この組み合わせを選ぶ理由は以下の通りです:
  1. 簡単なインストール: OllamaはワンコマンドでDeepSeekをセットアップできるため、初心者でも手軽に始められます。
  2. データの安全性: Ollamaはローカル環境で動作するため、やり取りするデータが外部に漏れる心配がありません。
  3. 高性能: DeepSeekは複数の推論を重ねてより正確な回答を導き出す「反省チェーン」機能を搭載しており、Ollamaの環境でその力を最大限に発揮できます。
以下の手順でOllamaとDeepSeekをインストールしましょう。 Ollama はAIモデルを管理するツールです!以下のコマンドでインストールしましょう。
curl -fsSL https://ollama.com/install.sh | sh
インストール完了後に、次のコマンドで正常に使えるか確認しましょう。
ollama -v
DeepSeekは、たくさんのことを考えて答えを出すことができるオープンソースのAIモデルです。自分に合ったDeepSeekモデルを選びましょう!初心者には7Bモデルがおすすめです。
ollama run deepseek-r1:7b
より大きなモデルを使用する場合は、以下のコマンドで70Bモデルをダウンロードできます。
ollama run deepseek-r1:70b
このコマンドは自動的にモデルをダウンロードしてロードします。ダウンロード時間はネットワーク速度とモデルのサイズに依存します。 初回インストールには7Bモデルを推奨します。インストール完了後、次のコマンドでAIと対話が可能になります。
ollama run deepseek-r1:7b
しかし、ターミナルでの操作は使いにくく、他の人と共有するのも不便ですよね? より理想的な方法として、Web上で対話できる専用のインターフェースを用意すると便利です。それを実現するのが「Open WebUI」です。

📦 Step3: Dockerをインストールしよう

なぜDockerが必要なのか?

Dockerは、アプリケーションを「コンテナ」と呼ばれる環境にまとめて管理できるツールです。Open WebUIをセットアップする際、Dockerを使用することで複雑な設定を簡単に済ませ、安定して動作させることができます。 特に、Open WebUIはDockerコンテナ上で動作することを前提に設計されています。Dockerを使うことで、DeepSeekとOllamaをWebブラウザ上で操作できるようになり、より直感的にAIアシスタントを利用できるようになります。 Docker とは、アプリを簡単に管理できるツールです!下のコマンドを実行してインストールしましょう。
docker version > /dev/null || curl -fsSL get.docker.com | bash
もしDockerがインストールされていない場合、以下の手順でもインストールできます。
sudo apt update
sudo apt install docker.io
sudo systemctl enable docker
sudo systemctl start docker
インストール後、バージョンを確認します。
docker --version
⚠️ 注意: Dockerコマンドを実行するときに「permission denied」と表示された場合は、以下のコマンドで現在のユーザーをDockerグループに追加しましょう。
sudo usermod -aG docker $USER
newgrp docker

💻 Step4: Open WebUIをインストールしよう

なぜOpen WebUIを選ぶのか?

Open WebUIは、DeepSeekをより直感的に操作できるWebインターフェースを提供するプラットフォームです。これにより、ターミナル操作を必要とせず、ブラウザ上でAIとの対話を簡単に行えるようになります。 Open WebUIを使うメリット:
  1. 使いやすいインターフェース: ブラウザから簡単にAIと対話可能。
  2. データの安全性: ローカル環境内で完結するため、プライバシーを保護。
  3. 多機能: 画像認識、ファイル分析、音声チャットなどを1つのプラットフォームで管理。
Open WebUIは、DeepSeekをより便利に使えるようにするウェブサイトです!次のコマンドでインストールしましょう。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
トラブルシューティング: もし、docker: command not foundと表示された場合は、Dockerが正しくインストールされていない可能性があります。
  1. Dockerのステータスを確認:
sudo systemctl status docker
  1. Dockerが動いていない場合は起動:
sudo systemctl start docker
  1. 再度Dockerコマンドを実行。
インストール完了後、次のリンクにアクセスしましょう。
http://[あなたのサーバーIP]:3000/
ユーザー名、メール、パスワードを設定したら、あなただけのプライベートAIアシスタントの完成です!✨ Open WebUIには、画像認識アシスタント、ファイル分析機能、音声チャットなど、便利な機能も備わっています。

🌐 Step5: ファイアウォール設定とアクセス確認

外部からアクセスできない場合は、サーバーのファイアウォール設定を確認しましょう。 1. UFW(Ubuntuのファイアウォール)を有効化:
sudo ufw enable
sudo ufw allow 3000/tcp
sudo ufw reload
2. GCPのファイアウォール設定:
  1. GCPコンソール > VPCネットワーク > ファイアウォールルール に移動。
  2. 新しいルールを作成:
    • 名前: allow-open-webui
    • ターゲット: ネットワーク内のすべてのインスタンス
    • ソースIP範囲: 0.0.0.0/0
    • プロトコルとポート: TCP:3000
3. 外部からポート3000が開いているか確認:
nc -zv [あなたのサーバーIP] 3000
接続成功と表示されれば、設定完了です。 この方法で、自分だけの安全で高機能なAIを作って、文章作成や学習に活用しましょう!