- n8n×AI実践ガイド — オープンソースの自動化ツールでAIワークフローを構築する
- はじめに——「完全無料のAI業務自動化」が現実になった
- n8n×AIの全体像——何ができるようになるのか
- Zapier・Make・n8n——AI機能の詳細比較
- n8nのインストール——3つの方法
- 実践①——AIエージェントで「メール自動分類+応答ドラフト生成」
- 実践②——MCP連携で「AIの手足」を増やす
- 実践③——Ollama+n8nで「完全ローカルAIチャットボット」を構築する
- 実践④——業務別のAI自動化レシピ3選
- n8n × Ollamaのモデル選びガイド
- よくある質問(FAQ)
- 導入ロードマップ
- まとめ——n8nは「AIエージェントのための汎用基盤」になった
n8n×AI実践ガイド — オープンソースの自動化ツールでAIワークフローを構築する
はじめに——「完全無料のAI業務自動化」が現実になった
以前の記事「Zapier・Make・n8n 業務自動化レシピ集」で、3つの主要な自動化ツールを比較しました。その中でn8nは「セルフホスト可能なオープンソースツール」として紹介しましたが、今回はn8nのAI機能に焦点を絞って深掘りします。
なぜ今、n8nなのか? それは2026年に入り、n8nが3つのAIピースを統合できる唯一の無料プラットフォームになったからです。
- AIエージェントノード:ワークフローの中にAIの「判断力」を組み込める
- MCP(Model Context Protocol)連携:「MCPってなに?」で解説した共通規格を使い、AIと外部ツールをシームレスに接続
- Ollama連携:「ローカルLLM入門」で紹介したOllamaを接続し、クラウドAPIに頼らず完全ローカルで動くAI自動化を実現
ZapierやMakeでもAI連携は可能ですが、どちらもクラウド専用の有料サービスです。n8nなら、自分のパソコンやサーバーにインストールして、APIコストゼロでAI自動化ワークフローを構築できます。データは外部に出ず、月額課金もありません。
この記事では、n8nのインストールからAIエージェントの構築、MCP連携、Ollama統合まで、非エンジニアでも追えるステップで解説します。
n8n×AIの全体像——何ができるようになるのか
まず、n8nのAI機能でできることの全体像を把握しましょう。
| 機能 | できること | 必要なもの | コスト |
|---|---|---|---|
| AIエージェントノード | AIが「考えて行動する」ワークフローを構築。メール分類、問い合わせ自動応答、データ分析の自動実行 | n8n + LLM(OpenAI API or Ollama) | Ollama利用なら無料 |
| MCP Client Tool | 外部のMCPサーバーが提供するツール(Google検索、DB操作等)をAIエージェントに接続 | n8n + MCPサーバー | 無料(MCPサーバーによる) |
| MCP Server Trigger | n8nのワークフロー自体をMCPツールとして公開。Claude等の外部AIからn8nの処理を呼び出せる | n8n(セルフホスト版) | 無料 |
| Ollama Chat Model | ローカルLLM(Llama、Mistral、DeepSeek等)をn8nのAIノードに接続 | n8n + Ollama | 完全無料 |
| メモリノード | AIエージェントに「記憶」を持たせ、過去の会話を踏まえた応答を実現 | n8n + Redis or SQLite | 無料 |
| Human-in-the-Loop | AIの判断に人間の承認ステップを挟む。高リスク操作の安全弁 | n8n(2026年1月追加の新機能) | 無料 |
これらを組み合わせることで、たとえば「メールが届いたら → AIが内容を判断 → 適切なSlackチャンネルに転送 → 緊急度が高ければ担当者に承認を求める」といったワークフローが、コードを一行も書かずにビジュアルな画面上で構築できます。
Zapier・Make・n8n——AI機能の詳細比較
「業務自動化レシピ集」では概要を比較しましたが、AI機能に絞った比較をここで行います。
| 比較項目 | Zapier | Make | n8n |
|---|---|---|---|
| AI連携の方式 | OpenAI等のAPIをアクション内で呼び出し | OpenAI/Anthropicモジュール+HTTPリクエスト | AIエージェントノード(自律的に判断・行動) |
| MCP対応 | ✕ 非対応 | ✕ 非対応 | ◎ MCP Client+MCP Server 両対応 |
| ローカルLLM対応 | ✕ クラウドAPIのみ | ✕ クラウドAPIのみ | ◎ Ollama直接連携 |
| セルフホスト | ✕ クラウドのみ | ✕ クラウドのみ | ◎ Docker/npm/デスクトップアプリ |
| AIの「記憶」機能 | ✕ | △(外部DB連携で実現可能) | ◎ メモリノード標準搭載 |
| Human-in-the-Loop | △(承認ステップあり、AI専用ではない) | △ | ◎ AIツール実行時の承認機能(2026年1月〜) |
| AI利用時のコスト | Zapier月額+OpenAI API費用 | Make月額+API費用 | セルフホスト無料+Ollama利用なら0円 |
| 学習コスト | 低(最も直感的) | 中 | 中〜高(セルフホストの設定が必要) |
選択の指針:「手軽にAI連携を試したい」ならZapier、「複雑な分岐処理もやりたい」ならMake、「コストを最小限にしたい」「データを外部に出したくない」「MCPやローカルLLMを活用したい」ならn8n——という棲み分けが明確になっています。
n8nのインストール——3つの方法
n8nを使い始める方法は3つあります。目的に合わせて選びましょう。
| 方法 | 手順 | 向いている人 |
|---|---|---|
| ①n8n Cloud(有料) | n8n.ioでアカウント作成。インストール不要ですぐ使える | まず試したい人。月€20〜 |
| ②npx(最も手軽) | ターミナルで npx n8n を実行するだけ | ローカルで試したい人。Node.js必須 |
| ③Docker(推奨) | Docker Composeで起動。永続化・Ollama連携に最適 | 本格運用したい人。Ollama連携にはこれが最適 |
方法②の手順(最も手軽)
Node.jsがインストール済みであれば(「Claude Code入門」でインストール手順を解説しています)、ターミナルで1行実行するだけです。
npx n8n
起動後、ブラウザで http://localhost:5678 にアクセスすると、n8nのワークフローエディタが開きます。
方法③の手順(Docker + Ollama連携)
Ollama連携を含む本格的な構成には、Docker Composeを使います。以下の内容を docker-compose.yml として保存し、docker compose up -d で起動します。
version: "3"
services:
n8n:
image: n8nio/n8n
ports:
- "5678:5678"
volumes:
- n8n_data:/home/node/.n8n
environment:
- GENERIC_TIMEZONE=Asia/Tokyo
extra_hosts:
- "host.docker.internal:host-gateway"
restart: always
volumes:
n8n_data:
extra_hosts の設定により、DockerコンテナからホストPCで動作しているOllamaに接続できるようになります。Ollamaが同じPCで動いている場合、n8nの設定画面でOllamaのBase URLに http://host.docker.internal:11434 を指定します。
実践①——AIエージェントで「メール自動分類+応答ドラフト生成」
最初の実践として、n8nのAIエージェントノードの基本的な使い方を体験しましょう。
ワークフローの構成
このワークフローは5つのノードで構成されます。
- Email Trigger(IMAP):新着メールの受信をトリガーにする
- AI Agent:メールの内容を読み取り、カテゴリ(問い合わせ/見積依頼/クレーム/その他)を判定し、応答ドラフトを生成する
- Chat Model(Ollama or OpenAI):AIエージェントの頭脳。ローカルLLMかクラウドAPIを選択
- IF分岐:カテゴリに応じて処理を分岐
- Slack通知:カテゴリと応答ドラフトを適切なSlackチャンネルに投稿
AIエージェントノードの設定
AIエージェントノードの核となるのが「システムプロンプト」です。以下は設定例です。
システムプロンプト例:
あなたは中小ITコンサルティング会社のメール分類アシスタントです。
受信メールの内容を分析し、以下のJSON形式で出力してください。
{
"category": "inquiry | quote_request | complaint | other",
"urgency": "high | medium | low",
"summary": "メール内容の要約(2文以内)",
"draft_reply": "返信のドラフト(丁寧な日本語ビジネスメール形式)"
}
分類ルール:
- 見積もりや料金に関する問い合わせ → quote_request
- サービスへの不満や障害報告 → complaint(urgencyはhigh)
- 一般的な質問 → inquiry
- それ以外 → other
返信ドラフトのルール:
- 宛名は「○○様」(メールの差出人名を使用)
- 具体的な回答は含めず「確認の上ご連絡します」形式
- 緊急度highの場合は「至急確認いたします」を冒頭に
Ollamaをチャットモデルとして接続する
AIエージェントノードの「Chat Model」に、Ollamaノードを接続します。
- AIエージェントノードの「Chat Model」の+ボタンをクリック
- 「Ollama Chat Model」を選択
- Credential(接続情報)の設定で、Base URLに
http://host.docker.internal:11434(Docker環境)またはhttp://localhost:11434(ローカル環境)を入力 - Modelで使用するモデルを選択(例:
llama3.2、mistral、qwen2.5)
これでクラウドAPIへの課金なしに、AIエージェントが動作します。日本語の品質を重視する場合は qwen2.5(7Bまたは14B)がおすすめです。
実践②——MCP連携で「AIの手足」を増やす
「MCPってなに?」で解説した通り、MCPはAIと外部ツールをつなぐ共通規格です。n8nはこのMCPにクライアントとサーバーの両方として対応しています。
MCP Client Tool——外部ツールをAIエージェントに接続する
たとえば、AIエージェントにWeb検索能力を追加したい場合、Brave SearchのMCPサーバーを接続できます。
- AIエージェントノードの「Tools」の+ボタンをクリック
- 「MCP Client Tool」を選択
- SSE Endpoint欄に、使用するMCPサーバーのURLを入力
- 認証方式(Bearer、Header等)を設定
- 「Tools to Include」で公開するツールを選択(AllまたはSelected)
これにより、AIエージェントは「この質問に答えるにはWeb検索が必要だ」と自律的に判断し、MCPサーバー経由でBrave Searchを呼び出して結果を取得します。
MCP Server Trigger——n8nのワークフローをAIに公開する
逆に、n8nのワークフロー自体を「MCPツール」として外部のAI(ClaudeやChatGPT等)に公開することもできます。
たとえば、「社内の顧客データベースを検索して結果を返す」ワークフローをMCPサーバーとして公開すれば、Claudeのデスクトップアプリから「○○株式会社の過去の取引履歴を教えて」と聞くだけで、n8n経由でデータベース検索が実行されます。
「AIエージェント最前線2026」で紹介したMCPの「ツールの相互運用性」が、n8nを通じて具体的な形になるわけです。
Human-in-the-Loop——AIの暴走を防ぐ安全弁
2026年1月に追加されたn8nの重要な新機能が「Human-in-the-Loop」です。AIエージェントがMCPツールやサブワークフローを実行する前に、人間の承認を必須にできます。
たとえば「AIが顧客にメールを送信する」アクションには承認を必須にし、「Slackに社内メモを投稿する」アクションは自動実行を許可する——といった細かい制御が可能です。これは「AIセキュリティ入門」で解説したAIのリスク管理を、ワークフローレベルで実装するものです。
実践③——Ollama+n8nで「完全ローカルAIチャットボット」を構築する
「ローカルLLM入門」でOllamaの基本を学んだ方に、n8nとの統合による実用的なチャットボットの構築手順を紹介します。
ワークフローの構成
- Chat Trigger:n8nの組み込みチャットUI(Webブラウザからアクセス可能)
- AI Agent:ユーザーの質問に応じて、ツールを使い分けながら回答を生成
- Ollama Chat Model:ローカルLLMが推論を実行(例:Qwen 2.5 7B)
- Simple Memory:会話履歴を保持し、文脈を踏まえた応答を実現
- ツール群:Google Sheets Tool(社内データ参照)、Calculator Tool(数値計算)、HTTP Request Tool(外部API呼び出し)
公開設定
Chat Triggerノードの「Make Chat Publicly Available」をオンにすると、チャットのURLが生成されます。このURLを社内メンバーに共有すれば、ブラウザからアクセスするだけでAIチャットボットが使えます。社内FAQ対応や、簡単な情報検索に活用できます。
「RAG実践ガイド」で紹介したDifyやAnythingLLMと比較すると、n8nのチャットボットは「RAG機能そのもの」はシンプルですが、400以上の外部サービスとの連携(Slack、Google Sheets、データベース等)を組み合わせられる点が大きな差別化要因です。
実践④——業務別のAI自動化レシピ3選
ここまでの基本を踏まえ、中小企業で即使える実践レシピを紹介します。
レシピ1:日報の自動要約+週次レポート生成
| ノード | 役割 |
|---|---|
| Schedule Trigger | 毎週金曜17時に自動起動 |
| Google Sheets | 今週の日報データを読み込み(社員名、日付、業務内容、成果、課題) |
| AI Agent + Ollama | 日報を要約し、チーム全体の週次サマリーを生成 |
| Google Docs | レポートをGoogleドキュメントに書き出し |
| Slack | レポートのリンクをチームチャンネルに投稿 |
レシピ2:問い合わせフォームのAI自動振り分け+初動対応
| ノード | 役割 |
|---|---|
| Webhook Trigger | Webサイトの問い合わせフォームからデータを受信 |
| AI Agent + Ollama | 問い合わせ内容を分析し、カテゴリ・担当部署・緊急度を判定 |
| IF分岐 | 緊急度high → 即時通知 / medium → 通常フロー / low → バッチ処理 |
| Gmail | 顧客に自動返信メール(受領確認+対応目安)を送信 |
| Notion / Spreadsheet | 問い合わせ管理台帳に自動記録 |
レシピ3:競合ニュースの自動収集+AIサマリー
| ノード | 役割 |
|---|---|
| Schedule Trigger | 毎朝8時に自動起動 |
| RSS Feed Read | 業界ニュースサイトのRSSフィードから新着記事を取得 |
| HTTP Request | 記事本文をスクレイピングで取得 |
| AI Agent + Ollama | 「自社ビジネスへの影響度」を判定し、3行サマリーを生成 |
| Slack / Email | 影響度の高い記事のみ、経営陣のチャンネルに配信 |
n8n × Ollamaのモデル選びガイド
Ollama連携で使うローカルLLMは、タスクとPCスペックに応じて選びましょう。
| モデル | パラメータ数 | 必要メモリ | 日本語性能 | 向いているタスク |
|---|---|---|---|---|
| Qwen 2.5 | 7B / 14B | 8GB / 16GB | ◎ | 日本語メール分類、要約、ドラフト生成 |
| Llama 3.2 | 3B / 8B | 4GB / 8GB | ○ | 英語中心のタスク、軽量な分類処理 |
| Mistral | 7B | 8GB | △ | コード生成、構造化データ処理 |
| DeepSeek R1 | 1.5B / 7B | 2GB / 8GB | ○ | 推論タスク、分析・判断が必要な処理 |
| Phi-4 | 3.8B | 4GB | △ | 軽量で高速な処理が必要な場面 |
おすすめ:日本語の業務自動化ならQwen 2.5(7B)から始めましょう。メモリ8GBのPCで動作し、日本語の理解力と生成品質が高いバランスの取れたモデルです。より高品質を求める場合は14B版を、PC性能が限られる場合はDeepSeek R1の1.5B版で試してみてください。
よくある質問(FAQ)
Q1. n8nはプログラミング経験がなくても使えますか?
基本的なワークフロー構築はドラッグ&ドロップで可能です。ただし、AIエージェントのプロンプト設計やDocker環境の構築には、ある程度の技術的な理解が求められます。「Claude Code入門」で紹介したClaude Codeを併用すれば、Docker Composeファイルの作成やトラブルシューティングもAIに支援してもらえます。
Q2. n8n Cloudとセルフホストはどちらがいいですか?
「まず試したい」ならn8n Cloud(月€20〜、14日間無料トライアルあり)がおすすめです。Ollama連携やMCPサーバー公開など、ローカル環境でしかできない機能を使いたい場合はセルフホストが必要です。セルフホストの方がコストは低い(無料)ですが、メンテナンスは自己責任になります。
Q3. Ollamaを使うには高性能なPCが必要ですか?
7Bパラメータのモデル(Qwen 2.5 7B等)であれば、RAM 8GB以上の一般的なビジネスPCで動作します。ただし推論速度はGPUの有無で大きく変わります。NVIDIA GPU搭載のPCなら快適に、CPU Only環境でも「少し待てば使える」レベルです。
Q4. ZapierやMakeから移行すべきですか?
すでにZapierやMakeで満足しているなら、無理に移行する必要はありません。n8nへの移行を検討すべきタイミングは「月額コストを削減したい」「データを外部サーバーに出したくない」「MCPやローカルLLMを使いたい」場合です。なお、n8nはZapier/Makeのワークフローをインポートする機能は持っていないため、移行は再構築が必要になります。
Q5. セキュリティは大丈夫ですか?
セルフホスト版のn8nでは、すべてのデータが自分のサーバーに保持されます。Ollama連携であれば、AI推論もローカルで実行されるため、一切のデータが外部に送信されません。ただし、n8nをインターネットに公開する場合は、認証設定(Basic Auth or SSO)とHTTPS化が必須です。「バイブコーディングのセキュリティガイド」で解説したセキュリティの基本原則を適用してください。
導入ロードマップ
ステップ1:npxでn8nを体験する(今日)
ターミナルで npx n8n を実行し、ワークフローエディタを開いてみましょう。最初のワークフローとして、「Schedule Trigger → HTTP Request → Slack通知」の3ノード構成を試してみてください。AIノードなしでも、n8nの操作感をつかめます。
ステップ2:AIエージェント+OpenAI APIで基本を学ぶ(1週間)
OpenAI APIキー(無料枠あり)を取得し、AIエージェントノードを使ったワークフローを構築します。本記事の「メール自動分類」レシピがおすすめです。まずはクラウドAPIで動作を確認し、AIエージェントの挙動を理解しましょう。
ステップ3:Docker+Ollamaでローカル化する(2〜3週間)
動作確認ができたら、Docker環境を構築し、Ollamaに切り替えます。これで月額課金ゼロの完全ローカルAI自動化環境が完成します。MCP連携やHuman-in-the-Loopの設定は、この段階で追加していきましょう。
まとめ——n8nは「AIエージェントのための汎用基盤」になった
この記事のポイントをまとめます。
n8nは2026年、単なる自動化ツールからAIエージェントの構築基盤へと進化しました。AIエージェントノード、MCP双方向対応、Ollamaローカル連携、メモリ機能、Human-in-the-Loop——これらの機能を組み合わせることで、「AIが自律的に判断して業務を遂行する」ワークフローが構築可能です。
最大の強みは「完全無料で、データが外部に出ない」こと。セルフホスト+Ollama連携であれば、月額課金もAPI費用も発生しません。中小企業のセキュリティ要件やコスト制約に最もフィットするソリューションです。
AI自動化の旅は、まず1つのシンプルなワークフローから。 npx n8n を実行し、3ノードのワークフローを作ることから始めてみてください。
本記事の情報は2026年2月時点のものです。各ツールの料金・機能は頻繁に更新されるため、利用前に必ず公式サイトで最新情報をご確認ください

コメント