「社外秘のデータを使ってRAG(知識検索)を作りたいけど、クラウドに上げるのはNG…」
「Difyのクラウド版を使っていたけど、制限を気にせずガシガシ実験したい…」
そんなあなたのための最適解が、「Difyのローカル環境構築(セルフホスト)」です。
この記事では、機密情報も安心・Dockerで自分のPCに作る最強のAI開発環境の全手順を解説します。クラウド版との費用・制限数の具体的な比較、llama3をOllamaで動かした体感速度データまで、累計200件超の受注実績から得た実体験をもとにお伝えします。
【結論】Dockerを使えば「3ステップ」で完了する
Difyのローカル構築は、以下の3ステップで完了します。
- 準備: Docker Desktopをインストールする。
- 取得: Difyのソースコードをダウンロード(Clone)する。
- 起動: 魔法のコマンド(docker compose up)を唱える。
これだけで、あなたのブラウザ上でDifyが動き出します。サーバー代もかかりません。
【比較】クラウド版 vs ローカル版、どちらを選ぶべきか
Dockerでローカル構築する前に、クラウド版との違いを整理しましょう。
| 項目 | クラウド版(Dify.ai) | ローカル版(Docker) |
|—|—|—|
| 月額費用 | Free: $0 / Pro: $59〜 | 完全無料 |
| APIコール数制限 | Freeプランで月200回など制限あり | 制限なし・使い放題 |
| データの保存場所 | Difyのクラウドサーバー(米国) | 自分のPC(外部流出ゼロ) |
| セットアップ難易度 | ブラウザ登録のみ(5分) | Dockerコマンド3行(15〜30分) |
| カスタマイズ性 | 限定的 | ソースコード自由改変可 |
| 最新機能の反映 | 即時 | git pullで手動更新 |
クラウドソーシングで受注している顧客データ分析やRAG構築の案件では、個人情報・社外秘情報を扱うケースが大半です。以前、クラウド版のFreeプランでAPIコール数の上限に引っかかり「本番前日に実験ができない」という失敗をしてから、機密性の高いプロジェクトではローカル版Difyを徹底するようになりました。
Step 0: 事前準備 (Docker Desktopのインストール)
Difyを動かすための「土台」を作ります。
- Windowsの方: Docker Desktop for Windows をインストールしてください。
- Macの方: Docker Desktop for Mac をインストールしてください。(Apple Silicon搭載機なら「Apple Chip」版を選択)
インストール後、Docker Desktopを起動し、左下のステータスが「Running(緑色)」になっていれば準備OKです。
Step 1・2: Difyのインストールと起動
ここからは「ターミナル(Mac)」または「PowerShell(Windows)」を開いて操作します。
以下のコマンドを順番にコピペして実行(Enter)してください。
1. ソースコードのダウンロード
Difyの公式リポジトリをあなたのPCにコピーします。
“bash
git clone https://github.com/langgenius/dify.git
`
2. フォルダの移動
ダウンロードしたフォルダの中にある、Docker設定ファイル置き場へ移動します。
`bash
cd dify/docker
`
3. Difyの起動(魔法のコマンド)
必要なシステム(データベースやAPIサーバーなど)をまとめて立ち上げます。
`bash
docker compose up -d
`
※初回は数GB分のデータをダウンロードするため、回線によっては5〜10分ほどかかります。画面に「Started」や「Running」の文字が並べば成功です。
Step 3: ブラウザでアクセスして初期設定
黒い画面での操作はこれで終わりです。
ブラウザ(Chromeなど)を開き、以下のアドレスにアクセスしてください。
http://localhost/install
Difyの管理者アカウント作成画面が表示されたら勝利です!
メールアドレスとパスワードを設定すれば、クラウド版と全く同じ画面が使えます。
【応用】Ollamaと連携して「完全オフラインAI」にする
Difyをローカルに入れただけでは、AIモデル(GPT-4など)を使う際にOpenAIへデータが飛びます。
「データも外に出したくない」場合は、ローカルLLM実行ツール「Ollama」と連携させましょう。
実際にllama3で動かした体感速度
私の環境(MacBook Pro M2 / 16GB RAM)でOllama + llama3:8bを動かした結果を、クラウドAPIと比較しました。
| 比較項目 | GPT-3.5 turbo(クラウド) | llama3:8b(Ollama/M2) |
|---|---|---|
| 応答速度(1回の質問) | 約1〜2秒 | 約3〜6秒 |
| 月額費用 | APIトークン課金(目安:$5〜20/月) | 完全無料 |
| データ送信先 | OpenAIサーバー(米国) | 自分のPC(完全ローカル) |
| 日本語精度 | 高い | やや劣るが実用十分 |
応答速度はクラウド版の2〜3倍程度かかりますが、機密データを扱う案件では「多少遅くても外に出さない」が最優先です。RAG構築や社内ドキュメント検索のプロトタイプ用途であれば、十分な速度感です。
設定のポイント:Dockerの壁を超える
Dify(Dockerの中)からOllama(PC本体)に接続する場合、URLの指定にコツがいります。
- Ollamaをインストールし、モデル(例: ollama run llama3
)を起動しておく。 - Difyの設定画面 > [Model Provider] > [Ollama] を選択。
Base URL に以下を入力(重要!):
`
`
localhost ではなく host.docker.internal を使うのが鉄則です。これで、インターネット接続すら不要の最強セキュリティ環境が完成します。
よくあるトラブル (FAQ)
Q: Port already in use エラーが出る
A: 他のアプリが場所(ポート80番など)を取っています。
Webサーバー(Apache/Nginx)やSkypeなどが動いていませんか?
私自身、Mac M2環境での初回セットアップ時にこのエラーに遭遇しました。原因はローカルで動かしていた別のWebサーバーがポート80を占有していたためです。docker-compose.yaml の ports: 設定を 80:80 から 8080:80 に変更して起動し直したところ、即座に解決しました。その場合、アクセスURLは http://localhost:8080 になります。
`yaml
docker/docker-compose.yaml の該当箇所
ports:
- "8080:80" # 80:80 から変更
`
Q: Difyを最新版にアップデートしたい
以下のコマンドを実行するだけでOKです。データは消えません。
`bash
cd dify/docker
git pull origin main
docker compose down
docker compose up -d
“
まとめ
Difyのローカル構築は、Dockerさえあれば恐れるに足りません。
- コスト0円(クラウド版Proプランは月$59〜かかるところ)
- データ流出リスクなし(社外秘・個人情報も安全に活用)
- 制限なしで使い放題(APIコール数・ワークフロー数の上限なし)
この環境があれば、社外秘の議事録要約AIも、個人情報の塊である顧客データ分析も、安全に開発できます。まずはDocker Desktopのインストールから始めてみてください。
ローカル環境が整ったら、次のステップとしてDifyでRAGパイプラインを構築する手順も解説しています。ぜひ合わせてご覧ください。
→ 次の記事: DifyでRAGを作る全手順【ローカル環境での実装ガイド】
参考文献・リンク
- Dify GitHub Repository — 公式ソースコード
- Dify Docs: Docker Compose Deployment — 公式マニュアル
—
この記事の内容に関する開発・自動化のご依頼はお気軽にご相談ください。
累計200件以上の受注実績・残念評価ゼロ。


コメント