「AIエージェントを導入したいが、毎月のAPI料金やクラウド費用がネックで手が出ない」——そんな中小企業や個人事業主の方に朗報です。オープンソースのパーソナルAIエージェント「OpenClaw」は、ソフトウェア自体が完全無料。さらに、手持ちのPCやMac mini、中古ミニPCにローカルLLMを組み合わせれば、月額ランニングコスト0円で「自分専用のAIアシスタント」を24時間稼働させることができます。
本記事では、「できるだけ安く、できるだけ簡単に」OpenClawを動かすことだけに焦点を当てます。ハードウェア選び・インストール手順・月額0円を維持するコツまで、コスト最優先の構成を体系的に解説します。
OpenClawとは?——30秒で分かる概要
OpenClawは、2025年11月に個人プロジェクトとして誕生し、わずか数か月でGitHubスター数25万超を記録した、オープンソースの自律型AIエージェントフレームワークです。
最大の特徴は、WhatsApp・Telegram・Slack・Discord・LINE・iMessageなど20以上のメッセージングプラットフォームに接続でき、普段使っているチャットアプリから自分専用のAIアシスタントと会話できること。メールの監視、カレンダー管理、ファイル操作、シェルコマンド実行、Webブラウジングまで、単なるチャットボットではなく「自律的に行動するエージェント」として機能します。
そして何より重要なのは、ソフトウェアが完全無料であること。かかるコストは「どこでAIモデルを動かすか」だけで決まります。クラウドAPIを使えば従量課金が発生しますが、ローカルLLMを使えばその費用もゼロにできます。
2つの動かし方——Gateway ModeとLocal LLM Mode
OpenClawの費用構造を理解するには、まず「2つの動かし方」を知る必要があります。
Gateway Mode(クラウドAPI接続)
OpenClawのGateway(制御プレーン)だけを自分のPCで動かし、AIの「頭脳」はClaude・GPT・Geminiなどのクラウドモデルを利用する構成です。ハードウェア要件は極めて低く、RAM 2GB程度の軽量マシンでも動作します。ただし、APIの従量課金が発生するため、使い方次第で月額数千円〜数万円のコストがかかります。特にOpenClawのHeartbeat機能(30分ごとのバックグラウンド確認)を有効にしていると、フラッグシップモデルでは月3,000〜10,000円程度の「見えないコスト」が積み上がります。
Local LLM Mode(完全ローカル実行)
AIモデルもOllamaやLM Studioを使って自分のPC上で動かす構成です。すべてがローカルで完結するため、APIコストは一切発生しません。ただしLLMの推論にはそれなりのハードウェアスペックが必要で、最低16GB RAM、快適に使うなら32GB RAMが推奨されます。GPUがあれば応答速度が大幅に向上しますが、CPUだけでも動作は可能です。
本記事が目指す「月額0円」構成は、このLocal LLM Modeを前提としています。
最小ハードウェア要件の整理
まず、OpenClawを動かすために「最低限何が必要か」を整理しましょう。
| 項目 | Gateway Modeのみ(API接続) | Local LLM Mode(月額0円構成) |
|---|---|---|
| CPU | 4スレッド以上 | 8スレッド以上推奨 |
| RAM | 2GB(推奨4GB) | 16GB最低(推奨32GB) |
| ストレージ | SSD 40GB以上 | SSD 256GB以上 |
| GPU | 不要 | 不要(あれば大幅高速化) |
| OS | macOS 12+ / Ubuntu 22.04+ / Windows 10+(WSL2) | 同左 |
| ソフトウェア | Node.js 22以上 | Node.js 22以上 + Ollama |
| 月額コスト | APIトークン代(数百〜数万円/月) | 電気代のみ(数百円/月) |
ポイントは、Local LLM ModeでもGPUは必須ではないということです。8Bパラメータクラスのモデル(Llama 4 Scout 8B、Qwen 3 8Bなど)を4bit量子化すれば、約6GBのRAMでモデルを読み込めます。16GB RAMのマシンなら、OS用に4GB・モデルに6GB・OpenClaw本体とブラウザ自動化に残り6GBという配分で動作可能です。
構成パターン別コスト試算——4つの「月額0円」構成
ここからが本記事の核心です。手持ちのハードウェアや予算に応じて、4つの構成パターンを提示します。
パターンA:手持ちのMac mini M1/M2/M4を使う(初期費用0円〜)
すでにMac miniを持っているなら、最もハードルが低い選択肢です。Apple SiliconのユニファイドメモリはローカルLLMの推論と非常に相性が良く、16GBモデルでもトークン生成速度が実用レベルに達します。Mac mini M4(16GB)なら、小型モデルで毎秒40トークン以上の速度が出るとの報告もあります。
| 項目 | 内容 |
|---|---|
| 初期費用 | 0円(手持ち機を流用) |
| 推奨スペック | Mac mini M1以降 / 16GB以上 |
| 動かせるモデル | Llama 4 Scout 8B(4bit)、Qwen 3 8B、Gemma 3 4B |
| 月額ランニング | 電気代 約200〜400円/月(常時稼働時、消費電力20〜40W) |
| メリット | セットアップが簡単、省電力、静音、macOS用のOpenClawメニューバーアプリあり |
| 注意点 | 16GBだとブラウザ自動化との同時利用時にメモリが逼迫する場合あり |
新規購入する場合でも、Mac mini M4(16GB)は約10万円前後。中古のMac mini M1(16GB)なら5〜6万円台で入手可能で、ローカルLLMの入門機として最もコストパフォーマンスが高い選択肢のひとつです。
パターンB:中古ミニPC(Intel N100系)を使う(初期費用1〜3万円)
最小コストでOpenClawの「常時稼働サーバー」を確保したい場合の選択肢です。Intel N100搭載のミニPCは新品でも1.5〜3万円程度で購入でき、ファンレスモデルも多く、リビングや仕事部屋に置いても気にならない静音性が魅力です。
| 項目 | 内容 |
|---|---|
| 初期費用 | 1.5〜3万円(新品)/ 1万円前後(中古) |
| 推奨スペック | Intel N100 / 16GB RAM / 256GB SSD |
| 動かせるモデル | Gemma 3 4B(4bit)、Phi-4 mini(推論は遅め) |
| 月額ランニング | 電気代 約100〜200円/月(消費電力6〜15W) |
| メリット | 超低消費電力、ファンレス、24時間365日稼働に最適、場所を取らない |
| 注意点 | CPU推論のみのため応答速度は遅い(1回のやりとりに数秒〜十数秒)。複雑なタスクには不向き |
このパターンは「応答速度は遅くても構わないから、とにかく安く常時稼働するAIアシスタントが欲しい」というニーズに最適です。主な用途としては、Telegramから質問を投げて数秒後に回答が返ってくるようなシンプルなQ&A、リマインダー、定型タスクの自動化などが現実的です。
パターンC:Raspberry Pi 5を使う(初期費用1.5〜2.5万円)
IoTや教育用途で人気のRaspberry Pi 5も、OpenClawのホストとして利用できます。8GBモデルでGateway Modeを動かし、小型モデルのローカル推論も可能です。
| 項目 | 内容 |
|---|---|
| 初期費用 | 1.5〜2.5万円(本体+ケース+電源+microSD/SSD) |
| 推奨スペック | Raspberry Pi 5 / 8GB RAM |
| 動かせるモデル | Gemma 3 1B、Phi-4 mini(極小モデルのみ) |
| 月額ランニング | 電気代 約50〜100円/月(消費電力5〜8W) |
| メリット | 最小電力、コンパクト、Linuxネイティブで安定稼働 |
| 注意点 | 8GB RAMのため実用的なローカルLLMの選択肢が限られる。Gateway Mode+クラウドAPI推奨 |
正直に言えば、Raspberry Pi 5はLocal LLM Mode(月額0円構成)にはRAMがやや不足します。Gateway Mode(API従量課金)での利用が現実的で、完全な月額0円を目指すならパターンAかBの方が適しています。ただし、すでにRaspberry Piを持っている方が「まず触ってみる」用途としては十分です。
パターンD:ゲーミングPC・GPU搭載PCを流用する(初期費用0円〜)
NVIDIA RTXシリーズのGPU(VRAM 8GB以上)を搭載したPCが手元にあるなら、最もパフォーマンスの高い構成になります。GPUのTensor Coreを活用してローカルLLMの推論を高速化でき、8BモデルでCPUの10倍以上の速度が出ます。
| 項目 | 内容 |
|---|---|
| 初期費用 | 0円(手持ち機を流用) |
| 推奨スペック | NVIDIA RTX 3060以上(VRAM 12GB+)/ RAM 16GB以上 |
| 動かせるモデル | Llama 4 Scout 8B、Qwen 3 14B(4bit)、Gemma 3 12B(4bit) |
| 月額ランニング | 電気代 約1,000〜2,000円/月(常時稼働時、消費電力100〜200W) |
| メリット | 最速の応答、より大きなモデルが動く、マルチタスクに強い |
| 注意点 | 消費電力が高い、ファンの騒音、24時間稼働向きではない場合も |
このパターンは「デスクトップPCが起動している時間帯だけOpenClawを使う」スタイルに向いています。常時稼働には電気代がかさむため、純粋な月額0円からはやや外れますが、APIコストはゼロで維持できます。
4パターンの比較まとめ
| パターン | 初期費用 | 月額ランニング | 応答速度 | 常時稼働 | おすすめ度 |
|---|---|---|---|---|---|
| A. Mac mini(手持ち) | 0円 | 約200〜400円 | ◎ 高速 | ◎ | ★★★★★ |
| B. ミニPC(N100系) | 1.5〜3万円 | 約100〜200円 | △ 遅め | ◎ | ★★★★ |
| C. Raspberry Pi 5 | 1.5〜2.5万円 | 約50〜100円 | ✕ 非常に遅い | ◎ | ★★★ |
| D. GPU搭載PC(手持ち) | 0円 | 約1,000〜2,000円 | ◎◎ 最速 | △ | ★★★★ |
総合的に最もおすすめなのはパターンA(Mac mini)です。手持ちの機材がなく新規購入する場合は、パターンB(ミニPC)が初期費用の安さと常時稼働適性のバランスで優れています。
インストールから初回起動までの手順
ここでは、最も推奨するパターンA(Mac mini + Ollama)を例に、セットアップの流れを説明します。他のパターンでも基本手順は同じです。
ステップ1:Node.js 22以上をインストール
OpenClawはNode.jsで動作します。まず、ターミナルで現在のバージョンを確認してください。
node --version
v22未満の場合は、Node.js公式サイトからLTS版をインストールするか、nvmを使ってバージョンを切り替えます。
ステップ2:Ollamaをインストール
Ollama公式サイトからインストーラーをダウンロードして実行します。macOS・Linux・Windowsすべてに対応しています。インストール後、ローカルLLMモデルをダウンロードします。
# 推奨:Qwen 3 8B(日本語性能が高い)
ollama pull qwen3:8b
# 軽量版が良い場合
ollama pull gemma3:4b
モデルのダウンロードには数分〜十数分かかります(モデルサイズは4〜6GB程度)。
ステップ3:OpenClawをインストール
npm install -g openclaw@latest
ステップ4:初回セットアップ(Onboarding)
openclaw onboard --install-daemon
対話形式のセットアップウィザードが起動します。主な選択ポイントは以下の通りです。
セキュリティ警告:内容を確認し、理解した上で「Yes」を選択します。OpenClawはシェルコマンドやファイル操作を実行できるエージェントであるため、リスクを理解した上で使用することが重要です。
セットアップモード:「Quickstart」を選択します。
モデルプロバイダー:ローカルLLMを使う場合は「Skip for now」を選択し、後から手動で設定します。
ステップ5:ローカルLLMを接続
Ollamaが起動している状態で、OpenClawの設定を変更します。
# Ollamaをモデルプロバイダーとして設定
openclaw config set models.provider ollama
openclaw config set models.ollama.baseUrl "http://localhost:11434"
# デフォルトモデルを指定
openclaw config set agents.defaults.model "qwen3:8b"
ステップ6:チャンネルを接続
OpenClawの真価は、普段使っているメッセージングアプリから操作できることにあります。ここではTelegramを例に説明します。
まずTelegramの@BotFatherに話しかけて新しいBotを作成し、発行されたBot Tokenを取得します。そのTokenをOpenClawに設定します。
openclaw config set channels.telegram.botToken "YOUR_BOT_TOKEN"
設定後、Gatewayを起動します。
openclaw gateway
Telegramで作成したBotに「/pair」とメッセージを送ると、ペアリングコードが表示されます。これを承認すれば、TelegramからOpenClawに話しかけられるようになります。
ステップ7:動作確認
ブラウザで http://localhost:18789 にアクセスすると、OpenClawのControl UIが表示されます。ここからもチャットでやりとりできます。問題がある場合は以下のコマンドで診断できます。
openclaw doctor
月額コストを0円に保つ3つのコツ
OpenClawをローカルLLMで動かしていても、設定次第では「見えないコスト」が発生する場合があります。以下の3点を確認しておきましょう。
コツ1:Heartbeatを無効化(または間隔を延長)する
OpenClawにはデフォルトで30分ごとにLLMリクエストを送信するHeartbeat機能があります。クラウドAPIを使っている場合、これだけで月数千円のコストになりえます。ローカルLLMではAPI課金は発生しませんが、バックグラウンドでの不要な推論を減らして負荷を下げるために、無効化するか間隔を延長しておくのがおすすめです。
# Heartbeatを無効化
openclaw config set heartbeat.every "0m"
# または間隔を延長(例:6時間ごと)
openclaw config set heartbeat.every "360m"
コツ2:ClawRouterのecoプロファイルを活用する
OpenClawにはClawRouterという組み込みのモデルルーティング機能があります。リクエストの複雑さに応じてモデルを自動選択する仕組みで、ecoプロファイルを設定すると最もコスト効率の良いモデルが優先されます。ローカルLLMだけで運用する場合でも、軽い質問には軽いモデルを割り当てることでレスポンスが速くなります。
コツ3:不要なSkillsを無効化する
OpenClawにはブラウザ自動化、Web検索、コード実行などのSkills(ツール)が多数あります。これらはコンテキストウィンドウを消費し、推論時間を増加させます。使わないSkillsは無効化して、メモリとコンテキストを節約しましょう。
セキュリティ——最低限やるべき3つの設定
OpenClawはシェルコマンドの実行やファイル操作が可能な強力なエージェントです。「月額0円で動かせる」からといって、セキュリティを軽視してはいけません。最低限、以下の3点は必ず設定してください。
1. Gatewayのバインドをloopbackに限定する
デフォルト設定では、OpenClawのGatewayはlocalhostのみでリッスンします。この設定が変更されていないことを確認してください。
# 確認
openclaw config get gateway.bind
# "loopback" であることを確認。"0.0.0.0"になっていたら危険
外部からアクセスする場合は、ポートを直接開放するのではなく、TailscaleやSSHトンネルの利用を強く推奨します。
2. Gateway Tokenを設定する
Control UIやAPIへのアクセスにはトークン認証を有効にしてください。
openclaw doctor --generate-gateway-token
3. Skillsのインストールは慎重に
OpenClawのコミュニティSkills(プラグイン)は便利ですが、第三者が作成したコードを自分のマシンで実行することになります。信頼できるソースのSkillsのみをインストールし、権限を最小限に保つことが重要です。
AIエージェントのセキュリティについてより詳しく知りたい方は、以下の関連記事もご参照ください。
→ MCPサーバーセキュリティ完全ガイド【2026年版】——「便利だから繋ぐ」の前に知るべき脆弱性と安全設定
→ MCPサーバーセキュリティ完全ガイド【2026年版】——ツールポイズニング・CVE事例・CoSAI白書に基づく実践的安全設定
→ AIエージェントの「サプライチェーン攻撃」実例と防御ガイド【2026年版】
よくある質問(FAQ)
Q. 本当に月額0円で使えるのですか?
ソフトウェア(OpenClaw + Ollama + ローカルLLMモデル)はすべて無料です。発生するコストは電気代のみで、Mac miniの常時稼働で月200〜400円程度、ミニPC(N100系)なら月100〜200円程度です。厳密には「月額0円」ではありませんが、APIの従量課金やサブスクリプション料金は一切かかりません。
Q. ローカルLLMの回答品質はクラウドモデルと比べてどうですか?
率直に言えば、8Bクラスのローカルモデルは最新のClaude Sonnet 4.6やGPT-4oと比較すると回答品質に差があります。特に複雑な推論やTool Calling(ツール呼び出し)の精度では差が出やすいです。ただし、日常的なQ&A、リマインダー、メッセージの要約といったシンプルなタスクでは十分実用的です。まずはローカルLLMで始めて、必要に応じてクラウドAPIに切り替える——という段階的なアプローチが現実的です。
Q. 日本語の性能はどうですか?
ローカルLLMモデルの中では、Qwen 3シリーズが日本語性能で優れています。8Bモデルでも日常会話レベルの日本語は問題なく処理できます。より高い日本語品質を求める場合は、14B以上のモデルの利用を検討してください(ただし32GB以上のRAMが必要です)。
Q. LINEには接続できますか?
はい、OpenClawはLINEチャンネルにも対応しています。LINE Messaging APIを利用した接続が可能です。設定方法はOpenClawの公式ドキュメントを参照してください。
まとめ——「月額0円」で始めるOpenClawの第一歩
本記事のポイントを整理します。
OpenClawは完全無料のオープンソースAIエージェントであり、ローカルLLMと組み合わせればAPI従量課金ゼロで運用できます。手持ちのMac miniや中古ミニPCを活用すれば、初期費用0円〜3万円、月額ランニングコストは電気代のみで「自分専用のAIアシスタント」を24時間稼働させることが可能です。
最初はシンプルなQ&AやリマインダーからスタートしてOpenClawの操作感に慣れ、必要に応じてSkillsの追加やクラウドモデルへのアップグレードを検討していくのが、最もリスクの低い導入パスです。
より詳しい構築手順や機能の深掘りは、以下の関連記事をご覧ください。
→ OpenClaw実践構築ガイド【2026年版】——GitHub史上最速25万スターのオープンソースAIエージェントで「自律型パーソナルアシスタント」を自社環境に構築する
→ NemoClaw実践構築ガイド【2026年版】——NVIDIAがOpenClawに「セキュリティと企業統制」を足した理由と、DGX Spark / RTX PCで安全に動かす方法
→ ローカルLLM × Mac mini / Windows PC 実践構築ガイド【2026年版】——10万円以下のハードウェアで社内専用AIサーバーを立てる完全手順
→ ローカルLLMモデル選定ガイド【2026年版】——Llama 4・Gemma 3・Qwen 3・Phi-4を日本語業務シナリオ別に徹底比較

コメント