はじめに——OpenClawに「セキュリティと企業統制」が加わった
2026年3月16日、NVIDIAはGTC 2026の基調講演でNemoClawを発表しました。CEOのJensen Huangは壇上でこう語りました——「MacとWindowsはパソコンのOS。OpenClawはパーソナルAIのOS。NemoClawはそこにセキュリティとプライバシーを加える」。
OpenClawは「史上最速で成長したオープンソースプロジェクト」と言われるほどの勢いでAIエージェント分野を席巻しましたが、企業が業務に本格導入するには、セキュリティ面の課題が障壁となっていました。
NemoClawは、OpenClawにNVIDIA OpenShellランタイムをかぶせることで、サンドボックス実行・プライバシールーター・ネットワークポリシー制御を追加するオープンソーススタックです。単一コマンドでインストールでき、NVIDIAのNemotronモデルのローカル実行にも対応します。
この記事は、既存のOpenClaw構築ガイドの続編として、NemoClawが「何を追加したのか」「どうやって構築・運用するのか」「既存のOpenClaw環境からどうアップグレードするのか」を、インストールコマンドレベルで実践的に解説します。
この記事でわかること:
・NemoClawとは何か(OpenClawとの関係、OpenShellの役割、プライバシールーターの仕組み)
・インストールと初回セットアップ手順(CLI操作、推論プロファイル設定)
・セキュリティ機能の詳細(サンドボックスライフサイクル、Egressポリシー、オペレーター承認フロー)
・ローカルモデル(Nemotron)とクラウドモデルの使い分け設計
・DGX Spark / RTX PC / 一般PCそれぞれでの動作要件と推奨構成
・OpenClaw構築ガイド(ID:558)からのアップグレードパス
⚠ 重要:NemoClawは2026年3月時点でアーリープレビュー(アルファ版)です。NVIDIAは「プロダクション環境での使用は推奨しない。インターフェース、API、動作は予告なく変更される可能性がある」と明記しています。本記事は検証・実験目的での利用を前提としています。
NemoClawとは何か——OpenClawとの関係
OpenClawのセキュリティ課題
OpenClawは強力なAIエージェントプラットフォームですが、以下のセキュリティリスクが企業導入の障壁となっていました。
| リスク | 具体的な問題 | NemoClawの対応 |
|---|---|---|
| 無制限のネットワーク通信 | エージェントがあらゆる外部エンドポイントに接続可能。データ漏洩リスク | ✅ Deny-by-defaultのEgressポリシーで対応 |
| ファイルシステムの露出 | エージェントがホストのファイルシステムに直接アクセス可能 | ✅ サンドボックスによるファイルシステム隔離 |
| APIキーの平文管理 | エージェントの作業ディレクトリに.envファイルでAPIキーが保存される | ✅ OpenShellゲートウェイが認証情報を管理。エージェントは直接キーを保持しない |
| スキルサプライチェーン攻撃 | ClawHub上の悪意あるスキルがエージェント環境を汚染 | △ ネットワーク制限で緩和するが、スキル自体の検証はスコープ外 |
| プロンプトインジェクション | 外部入力を通じてエージェントの目標を乗っ取る | ✗ NemoClawのスコープ外。別途対策が必要 |
NemoClawの位置づけ——OpenClawの「セキュリティラッパー」
NemoClawはOpenClawの「フォーク(分岐版)」ではありません。OpenClawの上にセキュリティレイヤーを追加する「ラッパー」です。
■ NemoClawのアーキテクチャ概要 ┌─────────────────────────────────────────────┐ │ ホストマシン │ │ │ │ ┌─────────────────────────────────────┐ │ │ │ OpenShellサンドボックス │ │ │ │ │ │ │ │ ┌─────────────────────────────┐ │ │ │ │ │ OpenClawエージェント │ │ │ │ │ │ (コード実行・ツール利用) │ │ │ │ │ └──────────┬──────────────────┘ │ │ │ │ │ │ │ │ │ ┌──────────▼──────────────────┐ │ │ │ │ │ OpenShellポリシーエンジン │ │ │ │ │ │ ・ネットワークEgress制御 │ │ │ │ │ │ ・ファイルシステム制御 │ │ │ │ │ │ ・推論リクエストルーティング│ │ │ │ │ └──────────┬──────────────────┘ │ │ │ └─────────────┼───────────────────────┘ │ │ │ │ │ ┌─────────────▼───────────────────────┐ │ │ │ OpenShellゲートウェイ │ │ │ │ ・推論プロバイダー管理 │ │ │ │ ・認証情報の安全な保管 │ │ │ │ ・ポリシー外リクエストの承認/拒否 │ │ │ └─────────────────────────────────────┘ │ └─────────────────────────────────────────────┘
ポイントは、ポリシーエンジンがエージェントプロセスの「外側」で動作すること(Out-of-Process)です。エージェントがプロンプトインジェクション等で侵害されても、ポリシーエンジン自体を改ざんすることはできません。これが、アプリケーション層のガードレールとの根本的な違いです。
NemoClawの3つのコア機能
1. OpenShell——カーネルレベルのサンドボックス
OpenShellはNemoClawの中核ランタイムです。Landlock + seccomp + ネットワーク名前空間を組み合わせたカーネルレベルの隔離を提供します。
| 機能 | 説明 | 技術的な実装 |
|---|---|---|
| サンドボックス実行 | エージェントは隔離コンテナ内で動作。ホストへの直接アクセスを遮断 | Landlock + seccomp + netns |
| Deny-by-Default | 全ネットワーク通信をデフォルトで遮断。ホワイトリストのみ許可 | YAMLベースのEgressポリシー |
| ファイルシステム制御 | 書込みは/sandboxと/tmpのみ。他はリードオンリー | サンドボックス作成時にロック(動的変更不可) |
| Out-of-Process制御 | ポリシーはエージェント外で動作。侵害されたエージェントがポリシーを改ざんできない | OpenShellゲートウェイによる分離 |
| リアルタイム承認 | ポリシー外リクエストをTUIに表示し、オペレーターが承認/拒否 | openshell termコマンド |
2. プライバシールーター——推論リクエストのデータフロー制御
プライバシールーターは、エージェントの推論リクエストを「ローカル」と「クラウド」のどちらで処理するかを制御する仕組みです。すべての推論リクエストはOpenShellゲートウェイを経由するため、エージェントが直接LLMプロバイダーにアクセスすることはありません。
■ 推論リクエストのルーティング
[エージェントの推論リクエスト]
│
▼
[OpenShellゲートウェイ]
│
├─→ inference.local(ローカルモデル経由)
│ └ Ollama / vLLM上のNemotronモデル
│ └ データが外部に一切出ない
│
└─→ クラウドAPI
├ NVIDIA NIM(build.nvidia.com)
├ OpenAI互換エンドポイント
├ Anthropic互換エンドポイント
└ Gemini互換エンドポイント
※ エージェントはAPIキーを直接保持しない
※ 認証情報はゲートウェイの credential storage に保管
💡 NemoClawの推論プロバイダー対応状況(2026年3月時点):
・NVIDIA NIM:build.nvidia.comのホスト型API。デフォルト設定。Nemotronモデルが利用可能
・OpenAI互換:GPTモデル+カスタムエンドポイント(手動入力可)
・Anthropic互換:Claudeモデル+カスタムエンドポイント(手動入力可)
・Google Gemini:OpenAI互換エンドポイント経由
・ローカル(Ollama / vLLM):ローカルGPU上で直接実行
3. YAMLベースのEgressポリシー
NemoClawのネットワークポリシーは、宣言的なYAMLファイルで定義します。デフォルトでは全外部通信が遮断され、明示的に許可したエンドポイントのみアクセスできます。
# nemoclaw-blueprint/policies/openclaw-sandbox.yaml
# デフォルト設定:全Egressを遮断(deny-by-default)
network_policies:
- name: "github-api"
host: "api.github.com"
ports: [443]
methods: ["GET", "POST"]
binaries: ["node", "curl"]
- name: "pypi-registry"
host: "pypi.org"
ports: [443]
methods: ["GET"]
binaries: ["pip", "curl"]
filesystem_policy:
read_write:
- "/sandbox"
- "/tmp"
read_only:
- "/usr"
- "/lib"
- "/etc"
NemoClawはPyPI、Docker Hub、Slack、Jira、npm、Hugging Faceなどの一般的なサービス向けにプリセットポリシーも提供しています。オンボーディング時にどのプリセットを適用するか選択できます。
インストールと初回セットアップ
前提条件
| 要件 | 詳細 |
|---|---|
| OS | Linux のみ(Ubuntu 22.04/24.04推奨)。WSL2は実験的サポート(GPU検出に問題あり)。macOSはローカル推論が未対応 |
| メモリ | 最低8GB RAM。8GBちょうどの場合はスワップの追加を推奨(サンドボックスイメージ展開時にOOMの危険) |
| ストレージ | 最低20GB空き。サンドボックスイメージは約2.4GB(圧縮時)。ローカルモデル(Nemotron 3 Super 120B)を使う場合はOllamaで約87GBの追加容量が必要 |
| Docker | Docker 20.10以上(サンドボックスコンテナの実行に必要) |
| GPU(ローカル推論用) | NVIDIA CUDA対応GPU。クラウド推論のみの場合はGPU不要 |
| APIキー | NVIDIA API(build.nvidia.comで取得、nvapi-で始まる)。または利用する推論プロバイダーのAPIキー |
インストール手順
# ===== ステップ1:OpenShellのインストール ===== curl -LsSf https://raw.githubusercontent.com/NVIDIA/OpenShell/main/install.sh | sh # ===== ステップ2:NemoClawのインストール ===== # 方法A:ワンライナー(推奨) curl -fsSL https://www.nvidia.com/nemoclaw.sh | bash # 方法B:リポジトリからインストール git clone https://github.com/NVIDIA/NemoClaw.git cd NemoClaw ./install.sh # ※ sudo が必要な場合があります。sudoなしで # "permission denied" エラーが出た場合は sudo を付与 # ===== ステップ3:オンボーディング(初回セットアップ) ===== # ※ インストーラーが自動的にオンボーディングウィザードを起動します # ※ 以下のプロンプトに順番に回答していきます # [1] サンドボックス名の入力 # → デフォルト(my-assistant)でOK。Enterを押す # [2] サンドボックスの構築 # → コンテナイメージのビルドとプッシュ(約2分) # → 約20ステップの自動処理が実行される # [3] 推論プロバイダーの選択(後述の「推論プロファイル設定」参照) # → NVIDIA API / OpenAI / Anthropic / Gemini / ローカル # [4] APIキーの入力 # → 選択したプロバイダーのAPIキーを貼り付け # [5] ポリシープリセットの選択 # → Discord, Docker Hub, npm, PyPI, Slack, Jira等から選択 # → 基本セットアップではスキップ可(後から追加可能) # ===== ステップ4:サンドボックスに接続 ===== nemoclaw my-assistant connect # ===== ステップ5:エージェントとの対話 ===== # TUI(ターミナルUI)モードで起動 openclaw tui # またはCLIモードで直接メッセージを送信 openclaw agent --agent main --local -m "hello" --session-id test
推論プロファイル設定
NemoClawのオンボーディング時に推論プロバイダーを選択・設定します。設定は~/.nemoclaw/credentials.jsonに保存されます。
| プロバイダー | デフォルトモデル | 認証情報 | 用途 |
|---|---|---|---|
| NVIDIA NIM | nvidia/nemotron-3-super-120b-a12b | NVIDIA APIキー(nvapi-xxx) | デフォルト。高性能な推論をクラウドで実行 |
| OpenAI互換 | GPTモデル + カスタムモデル | OpenAI APIキー | 既存のOpenAI環境を活用 |
| Anthropic互換 | Claudeモデル + カスタムモデル | Anthropic APIキー | Claude APIを活用 |
| Google Gemini | OpenAI互換エンドポイント | Gemini APIキー | Gemini APIを活用 |
| ローカル(Ollama) | 手動選択 | “ollama”(ダミー) | 完全ローカル推論。データ外部送信なし |
| ローカル(vLLM) | 手動選択 | “dummy”(ダミー) | 高スループットのローカル推論 |
# 推論プロバイダーの切り替え(稼働中のサンドボックスに即時反映) openshell inference set --provider nvidia-nim \ --model nvidia/nemotron-3-super-120b-a12b # 既存の設定を確認 nemoclaw my-assistant status # 出力例: # Sandbox my-assistant (Landlock + seccomp + netns) # Model nvidia/nemotron-3-super-120b-a12b (NVIDIA Cloud API) # NIM not running
💡 推論プロバイダーの切り替えはサンドボックスの再起動なしで即時反映されます。開発中はクラウドAPIで高品質な推論を使い、機密データを扱うフェーズではローカルモデルに切り替える——という運用が可能です。
セキュリティ機能の詳細
サンドボックスのライフサイクル
■ NemoClawサンドボックスのライフサイクル
[1. 作成(onboard)]
└ ブループリント検証 → ダイジェスト照合 → リソース計画 → 適用
└ ファイルシステムポリシーはこの時点でロック(以降変更不可)
└ ネットワークポリシーは後から変更可能
↓
[2. 稼働(connect / run)]
└ エージェントがサンドボックス内で動作
└ ネットワーク・推論リクエストはOpenShell経由
└ ポリシー外リクエストはTUIに通知
↓
[3. 監視(status / logs / term)]
└ openshell term でリアルタイム監視
└ ブロックされたリクエストの確認
└ 承認/拒否の操作
↓
[4. 更新(policy set / inference set)]
└ ネットワークポリシーの動的更新(セッション限定)
└ 推論プロバイダーの切り替え(即時反映)
└ 永続的な変更はYAML編集 → nemoclaw onboard 再実行
↓
[5. 停止・削除(uninstall)]
└ nemoclaw uninstall で完全クリーンアップ
└ サンドボックス・ゲートウェイ・Docker関連の全リソースを削除
Egressポリシーの運用——2つの適用方法
| 方法 | コマンド | 永続性 | ユースケース |
|---|---|---|---|
| 永続的(Static) | YAMLファイルを編集 → nemoclaw onboard 再実行 | 再起動後も維持 | 本番運用のベースラインポリシー |
| 一時的(Dynamic) | openshell policy set <policy-file> | セッション限定。再起動でリセット | 一時的な接続先の追加、テスト時の緩和 |
オペレーター承認フロー(TUI)
エージェントがポリシーに含まれていないエンドポイントにアクセスしようとすると、OpenShellがリクエストをブロックし、TUIに通知します。
# 別のターミナルでTUIを起動 openshell term # TUI画面の表示例: # ┌─ Network Requests ──────────────────────┐ # │ [BLOCKED] registry.npmjs.org:443 node │ # │ [BLOCKED] unknown-server.com:8080 curl │ # │ │ # │ [a] Approve [d] Deny [i] Inspect │ # └─────────────────────────────────────────┘ # # ※ 承認したエンドポイントは現在のセッションのみ有効 # ※ 永続的に許可するには、YAMLファイルに追加してonboard再実行
⚠ 実運用での注意点:あるセキュリティ検証者の報告では、コーディングエージェントの初回稼働時に3件の予期しない外部接続を検知したとされています。2件は正当な通信(npmレジストリ、GitHub API)でしたが、1件はスキルが不明なサーバーに接続しようとするものでした。TUIが即座にブロックしたため問題にはなりませんでしたが、エージェント稼働開始直後はTUIによる監視を推奨します。
ローカルモデルとクラウドモデルの使い分け設計
3つの推論構成パターン
| 構成 | データの外部送信 | 推論品質 | 必要なハードウェア | 推奨ユースケース |
|---|---|---|---|---|
| クラウドのみ | あり(推論リクエストがクラウドに送信される) | 最高(大規模モデル利用可) | GPU不要 | 機密度の低いタスク、開発・テスト |
| ローカルのみ | なし(完全オフライン運用可能) | モデルサイズに依存 | NVIDIA GPU必須 | 機密データの処理、規制対応 |
| ハイブリッド | 一部あり(プライバシールーター経由) | 高い(用途に応じて使い分け) | NVIDIA GPU推奨 | 企業の一般的な利用。機密データはローカル、複雑な推論はクラウド |
ローカル推論のセットアップ(Ollama使用)
# ===== Ollamaのインストールと設定 ===== # 1. Ollamaをインストール(未インストールの場合) curl -fsSL https://ollama.com/install.sh | sh # 2. NVIDIAランタイムの確認(GPU使用の場合) docker run --rm --runtime=nvidia --gpus all ubuntu nvidia-smi # ※ 失敗した場合: sudo nvidia-ctk runtime configure --runtime=docker sudo systemctl restart docker # 3. Ollamaをネットワーク公開に設定 # (サンドボックスコンテナからアクセスするため) sudo mkdir -p /etc/systemd/system/ollama.service.d printf '[Service]\nEnvironment="OLLAMA_HOST=0.0.0.0"\n' | \ sudo tee /etc/systemd/system/ollama.service.d/override.conf sudo systemctl daemon-reload sudo systemctl restart ollama # ※ OLLAMA_HOST=0.0.0.0 はネットワーク上にOllamaを公開します # ※ 信頼できないLANの場合はufw/iptablesでアクセスを制限してください # 4. Nemotronモデルのダウンロード(約87GB) ollama pull nemotron-3-super-120b-a12b # 5. NemoClawのオンボーディング時に「Local Ollama」を選択 # → ダウンロードしたモデルを選択 # ===== 推論の動作確認(サンドボックス内から) ===== nemoclaw my-assistant connect curl -sf https://inference.local/v1/models # → モデル一覧がJSON形式で返ってくればOK
ローカルLLMの構築方法やモデル選定の詳細については、以下の記事も参考にしてください。
DGX Spark / RTX PC / 一般PCでの動作要件と推奨構成
ハードウェア別の推奨構成
| ハードウェア | 価格帯 | メモリ | 推論構成 | NemoClawの活用レベル |
|---|---|---|---|---|
| GPU非搭載の一般PC | — | 8GB以上 | クラウドのみ | サンドボックス+ネットワークポリシーのみ(ローカル推論不可) |
| GeForce RTX 4070 Ti(12GB VRAM) | 約12万円〜 | 12GB VRAM | 小規模ローカルモデル + クラウド | 小型モデルのローカル実行。大型モデルはクラウドへフォールバック |
| GeForce RTX 4090/5090(24GB VRAM) | 約25〜30万円〜 | 24GB VRAM | 中規模ローカルモデル + クラウド | 個人開発者向け。中型モデルのローカル実行 |
| RTX PRO ワークステーション | 構成次第 | 24〜48GB VRAM | 大規模ローカルモデル | チーム向けの常時稼働アシスタント |
| DGX Spark | $4,699〜(2026年2月に$3,999から値上げ) | 128GB統一メモリ | 最大200Bパラメータのモデルをローカル実行 | フル機能。Nemotron 3 Super 120Bのローカル常時稼働に最適 |
| DGX Station | 未定(GB300 Ultra搭載) | 784GB統一メモリ | 超大規模モデル、複数エージェント同時稼働 | 大規模エンタープライズ向け |
DGX Sparkでの構築ポイント
DGX SparkはNemoClawの「ベストマッチ」と言えるハードウェアです。128GBの統一メモリ(CPU/GPU共有)により、Nemotron 3 Super 120Bをローカルで実行しながら常時稼働エージェントを運用できます。
# ===== DGX Spark固有のセットアップ ===== # DGX SparkはUbuntu 24.04 + Docker 28.x がプリインストール済み # ただし、cgroup v2の設定が必要 # 1. Spark固有のセットアップスクリプトを実行 git clone https://github.com/NVIDIA/NemoClaw.git cd NemoClaw sudo ./scripts/setup-spark.sh # 2. OpenShellのインストール curl -LsSf https://raw.githubusercontent.com/NVIDIA/OpenShell/main/install.sh | sh # 3. NemoClawのインストール ./install.sh # または curl -fsSL https://www.nvidia.com/nemoclaw.sh | bash # 4. オンボーディング時に「Local Ollama」を選択 # → Nemotron 3 Super 120Bを選択(DGX Sparkの128GBメモリで実行可能) # 5. 接続して動作確認 nemoclaw my-assistant connect openclaw tui
💡 DGX Sparkの価格について:DGX Spark Founders Editionは当初$3,999で発売されましたが、2026年2月にメモリ供給制約を理由に$4,699に値上げされています。ただし、Acer、ASUS、Dell、Lenovo等のOEMパートナーからGB10搭載システムが様々な構成・価格で提供されており、NVIDIA直販以外の選択肢も検討できます。ハードウェアコストの管理についてはAIコスト管理ガイドも参照してください。
クラウドGPUインスタンスでの運用
ローカルにGPUハードウェアを持たない場合は、クラウドGPUインスタンスにNemoClawをデプロイする選択肢もあります。
| プラットフォーム | 特徴 | NemoClawとの連携 |
|---|---|---|
| NVIDIA Brev | NVIDIAのクラウドGPUプラットフォーム。NemoClawの公式サポートあり | nemoclaw deployコマンドでBrevインスタンスに直接デプロイ可能 |
| DigitalOcean | 1-Click Droplet(NemoClawプリインストール済み)を提供 | SSH接続後、オンボーディングウィザードが自動起動 |
| AWS / GCP / Azure | NVIDIA GPU搭載インスタンスを利用 | 手動インストールが必要 |
OpenClaw構築ガイド(ID:558)からのアップグレードパス
既存のOpenClaw構築ガイドに沿ってOpenClawを運用している場合の、NemoClawへのアップグレード手順です。
アップグレードの考え方
NemoClawは既存のOpenClawインスタンスの「上に」インストールするものではありません。NemoClawのオンボーディング時に、サンドボックス内に新しいOpenClawインスタンスが作成されます。そのため、アップグレードというよりも「NemoClaw環境の新規構築+既存環境からの移行」と捉えてください。
移行ステップ
■ OpenClaw → NemoClaw 移行チェックリスト [1] 事前準備 □ 既存OpenClawの設定・スキル・カスタム構成をバックアップ □ 利用中の推論プロバイダーとAPIキーを確認 □ 接続先の外部サービス(API、MCP サーバー等)をリスト化 □ 動作要件の確認(Linux / Docker / メモリ / ストレージ) [2] NemoClawのインストールとオンボーディング □ OpenShellをインストール □ NemoClawをインストール(既存のOpenClawとは別環境に構築される) □ 推論プロバイダーを設定 □ ポリシープリセットを選択(既存の接続先をカバーするプリセットを選ぶ) [3] ネットワークポリシーのカスタマイズ □ 事前にリスト化した接続先を、YAMLポリシーに追加 □ 不要な接続先は意図的に除外(セキュリティ向上のチャンス) □ openshell term でテスト稼働し、ブロックされる正当なリクエストを確認 [4] カスタムスキル・設定の移行 □ 既存のOpenClawスキルをサンドボックス内にコピー □ カスタム設定を再適用 □ 動作テストを実施 [5] 並行運用と切り替え □ 既存OpenClaw環境とNemoClaw環境を並行運用で比較テスト □ 問題がなければ既存環境を段階的に廃止 □ 既存OpenClaw環境のAPIキー・認証情報を失効させる
⚠ NemoClawはアルファ版です。既存のOpenClawの本番環境を即座にNemoClawに置き換えることは推奨しません。まずは検証環境でNemoClawを構築し、並行運用でテストした上で、正式版のリリース(Q3 2026以降と見込まれる)を待って本番切り替えを判断してください。ただし、既存OpenClaw環境のセキュリティ対策(MCPセキュリティ、ガードレール設計、ゼロトラスト設計)は、NemoClawを待たずに今すぐ実施してください。
NemoClawと既存セキュリティ対策の関係
NemoClawはインフラレベルのセキュリティを提供しますが、エージェントセキュリティの全体像の中では「一つのレイヤー」です。多層防御(Defense in Depth)の考え方で、既存の対策と組み合わせてください。
| セキュリティレイヤー | NemoClawのカバー範囲 | 既存記事での対策 |
|---|---|---|
| ネットワーク隔離 | ✅ Deny-by-defaultポリシー | — |
| サンドボックス実行 | ✅ OpenShellコンテナ隔離 | — |
| 推論データのプライバシー | ✅ プライバシールーター+ローカル推論 | — |
| MCP通信の保護 | △ ネットワークレベルで制限可能 | MCPセキュリティ基礎、MCP応用 |
| プロンプトインジェクション対策 | ✗ スコープ外 | ガードレール設計 |
| 権限エスカレーション防止 | △ サンドボックスで一部緩和 | 権限エスカレーション防止 |
| ゼロトラスト設計 | △ 部分的に実現 | ゼロトラスト設計 |
| エージェント運用監視 | △ TUIとログ監視 | エージェント運用・監視 |
よくある質問(Q&A)
Q1. NemoClawを使えばOpenClawのセキュリティ問題はすべて解決しますか?
いいえ。NemoClawはインフラ層の防御(サンドボックス、ネットワーク制御、データルーティング)を提供しますが、アプリケーション層のリスク(プロンプトインジェクション、スキルサプライチェーン攻撃、エージェントの推論操作)には対応していません。ガードレール設計やMCPセキュリティと組み合わせた多層防御が必要です。
Q2. NVIDIA以外のGPU(AMD等)でも使えますか?
サンドボックスとネットワークポリシーの機能はGPU非依存で動作します。ただし、ローカル推論機能(Nemotronモデルの実行)にはNVIDIA CUDA対応GPUが必要です。クラウド推論のみの構成であれば、GPU不要で利用可能です。
Q3. macOS / Windows で動作しますか?
NemoClawはLinuxのみ正式対応です。WSL2(Windows Subsystem for Linux 2)での動作は実験的にサポートされていますが、GPU検出に問題があります。macOSは部分的にサポートされていますが、ローカル推論は正常に動作しません。
Q4. 既存のOpenClawスキルはNemoClaw環境でそのまま使えますか?
はい。NemoClawはOpenClawの「ラッパー」であり、OpenClaw自体のコードは変更されていません。既存のスキルはサンドボックス内のOpenClawインスタンスにコピーすれば動作します。ただし、外部通信を行うスキルの場合、Egressポリシーで接続先を許可する必要があります。
Q5. 推論コストはどのくらいかかりますか?
構成によって大きく異なります。NVIDIA NIMのクラウド推論を使う場合はAPI利用料が発生します。ローカル推論(Ollama等)の場合はAPI料金は不要ですが、ハードウェア投資(DGX Spark: $4,699〜、RTX GPU搭載PC等)と電力コストが発生します。コスト管理の考え方についてはAIコスト管理ガイドも参照してください。
Q6. 完全にオフラインで運用できますか?
初回のインストール・オンボーディングにはインターネット接続が必要です(Dockerイメージのダウンロード、依存関係の取得)。ただし、環境構築が完了した後は、ローカル推論(Ollama / vLLM)を使用する場合に限り、完全オフラインでの運用が可能です。
まとめ——「安全なOpenClaw」の第一歩を今すぐ踏み出す
NemoClawは、急速に普及したOpenClawに「エンタープライズグレードのセキュリティ」を追加する最初の本格的な試みです。
要点を4つに整理します。
1. NemoClawは「OpenClawのセキュリティラッパー」。 OpenShellによるカーネルレベルのサンドボックス実行、Deny-by-defaultのネットワークポリシー、推論リクエストのルーティング制御で、インフラ層のセキュリティを提供します。
2. 推論プロバイダーは柔軟に選択・切り替え可能。 NVIDIA NIM、OpenAI、Anthropic、Gemini、ローカル(Ollama/vLLM)に対応し、稼働中の切り替えも即時反映されます。機密データはローカル、複雑な推論はクラウド——というハイブリッド運用が実現できます。
3. DGX Sparkがベストマッチだが、一般PCでも始められる。 128GBの統一メモリを持つDGX Spark($4,699〜)はNemotronモデルのローカル常時稼働に最適ですが、クラウド推論のみの構成ならGPU非搭載のLinux PCでもサンドボックス機能を利用できます。
4. アルファ版。検証環境で今すぐ始め、本番は正式版を待つ。 NemoClawのGitHubリポジトリをフォローし、検証環境で試しておきましょう。ただし、既存のOpenClaw環境のセキュリティ対策(MCPセキュリティ、ガードレール、ゼロトラスト)は、NemoClawを待たずに今すぐ実施してください。
参考リンク
- GitHub: NVIDIA/NemoClaw
- NVIDIA NemoClaw Developer Guide: Quickstart
- NVIDIA NemoClaw Developer Guide: Inference Profiles
- NemoClaw: DGX Spark Install Guide
- NVIDIA NemoClaw公式ページ
- NVIDIA Newsroom: NemoClaw発表プレスリリース
免責事項: 本記事は2026年3月時点の公開情報に基づく情報提供であり、特定のハードウェア・ソフトウェアの推奨ではありません。NemoClawはアーリープレビュー(アルファ版)であり、インターフェース・機能・動作は予告なく変更される可能性があります。本番環境への導入前に、必ず最新の公式ドキュメントとリリースノートを確認してください。記載したコマンド・設定例は解説目的であり、実環境では公式ドキュメントに従って操作してください。DGX Sparkの価格は2026年3月時点の情報であり、メモリ供給状況やOEMの構成により変動します。

コメント