はじめに——「どのAIを選ぶか」がセキュリティの第一関門
ChatGPT、Claude、Gemini、Dify——中小企業でも当たり前のようにAIツールを業務に使う時代になりました。
しかし、多くの企業が見落としているのが「契約前のセキュリティ評価」です。社員が使い始めてから「実はデータが学習に使われていた」「解約してもデータが残っていた」と気づいても、手遅れになるケースが増えています。
当サイトでは、OWASP LLM Top 10やRAGのセキュリティ、MCPサーバーの構築と安全設計、ゼロトラスト×AIなど「技術的な脅威」への対策を網羅してきました。しかし、そもそもどのAIサービスを選ぶか——入り口での安全評価がまだ抜けていました。
この記事では、中小企業の情報システム担当者・経営者が契約前にベンダーに確認すべきセキュリティ項目を、実際の主要AIサービスの最新ポリシー(2026年3月時点)とともにチェックリスト形式で整理します。
💡 この記事を読むと分かること
・主要AIサービス(ChatGPT / Claude / Gemini / Dify Cloud)のデータ処理・学習ポリシーの比較
・契約前にベンダーに必ず確認すべき10項目のチェックリスト
・SOC 2やISO 27001など、各サービスのコンプライアンス取得状況
・解約時のデータ削除保証の確認方法
・社内AI利用ガイドラインとベンダー評価を連動させる方法
なぜ「契約前」のベンダー評価が重要なのか
「使い始めてからでは遅い」3つの理由
理由1:データは一度渡ると取り戻せない
AIサービスに入力したデータが学習に使われた場合、そのデータはモデルの中に「溶け込み」ます。後からオプトアウトしても、すでに学習されたデータをモデルから取り除くことは技術的に困難です。
理由2:プランによってポリシーが全く異なる
同じ「ChatGPT」でも、無料プラン・Plusプラン・Team プラン・Enterpriseプランでは、データの学習利用や保持期間が大きく異なります。「ChatGPTを使っている」だけでは安全性は判断できません。
理由3:シャドーAIは事後対応のコストが莫大
社員が個人アカウントで業務データをAIに入力する「シャドーAI」は、事後の情報漏洩対応・顧客説明・社内調査に多大なコストがかかります。契約前に評価基準を定め、社内AI利用ガイドラインと連動させることで、シャドーAIの発生そのものを防ぐことができます。
ベンダーセキュリティ評価チェックリスト——契約前に確認すべき10項目
以下の10項目を、AIサービスの契約・導入前に必ず確認してください。各項目について「何を確認するか」「なぜ重要か」「どう確認するか」を説明します。
項目1:データの学習利用ポリシー(Training Opt-out)
確認事項:入力データ(プロンプト・ファイル)がAIモデルの学習・改善に使用されるか? オプトアウト(拒否)は可能か? デフォルトの設定はどうなっているか?
なぜ重要か:営業機密や顧客データをAIに入力した場合、それが学習データとして使われれば、他のユーザーへの応答に反映されるリスクがあります。
確認方法:利用規約・プライバシーポリシーの「Data Usage」「Model Training」セクションを確認し、ビジネスプランでのデフォルト設定を確認します。
項目2:データ保持期間(Data Retention)
確認事項:入力データ・出力データはどのくらいの期間保持されるか? 保持期間のカスタマイズは可能か? ゼロデータリテンション(ZDR)オプションはあるか?
なぜ重要か:不要なデータが長期間保持されることは、情報漏洩リスクの増大を意味します。規制産業(医療・金融・法務)では特に厳格なデータ保持ポリシーが求められます。
確認方法:Data Processing Addendum(DPA)を取得し、保持期間の明記を確認します。
項目3:セキュリティ認証の取得状況
確認事項:SOC 2 Type II、ISO 27001、ISO 42001(AI管理)、HIPAA対応などの認証を取得しているか?
なぜ重要か:第三者監査による認証は、ベンダーのセキュリティ体制が一定の基準を満たしていることの客観的な証拠です。SOC 2 Type IIは「一定期間にわたって統制が有効に機能していたこと」を証明するため、Type Iよりも信頼性が高いとされています。
確認方法:ベンダーのTrust Portal・セキュリティページで認証取得状況を確認します。SOC 2レポートはNDA(秘密保持契約)のもとで入手可能な場合があります。
項目4:サブプロセッサーの開示
確認事項:データ処理に関与する外部委託先(サブプロセッサー)は誰か? そのリストは公開されているか? 変更時に通知されるか?
なぜ重要か:AIベンダーが自社でデータを処理していても、インフラ(AWS、GCPなど)やモニタリングの外部委託先を通じてデータが流れる可能性があります。GDPRやAPPI(日本の個人情報保護法)では、サブプロセッサーの管理責任はデータ管理者側にあります。
確認方法:ベンダーのウェブサイトで「Sub-processors」リストの公開有無を確認し、変更通知の方法を確認します。
項目5:暗号化の方式
確認事項:転送中(in transit)と保管中(at rest)の暗号化方式は何か? BYOK(Bring Your Own Key:自社鍵の持ち込み)は可能か?
なぜ重要か:AES-256(保管時)とTLS 1.2以上(転送時)は業界標準です。BYOKが可能であれば、ベンダー側でのデータアクセスをさらに制限できます。
確認方法:セキュリティホワイトペーパーまたはTrust Centerで暗号化仕様を確認します。
項目6:アクセス制御とSSO対応
確認事項:SAML/OIDC SSOに対応しているか? ロールベースアクセス制御(RBAC)はあるか? 監査ログは取得できるか?
なぜ重要か:SSOにより社員のアクセスを一元管理でき、退職者のアクセス無効化が即座に行えます。監査ログは、インシデント発生時の調査やコンプライアンス監査に不可欠です。
確認方法:管理者向けドキュメントでSSO対応プロトコル、ロール設定、監査ログの出力形式を確認します。
項目7:データレジデンシー(データ所在地)
確認事項:データはどの国・リージョンに保管されるか? 日本国内やEU圏内に限定する選択肢はあるか?
なぜ重要か:日本の個人情報保護法やGDPRでは、個人データの越境移転に制限があります。顧客データを扱う場合、データの保管場所は契約上の重要事項です。
確認方法:DPAまたは利用規約で保管リージョンを確認します。
項目8:解約時のデータ削除保証
確認事項:サービス解約時に、入力データ・生成データ・アカウント情報は完全に削除されるか? 削除の期限は明確か? 削除証明書は発行されるか?
なぜ重要か:解約後もデータが残り続けるベンダーは少なくありません。削除保証がなければ、サービス乗り換え後もデータ漏洩リスクが残ります。
確認方法:利用規約の「Termination」「Data Deletion」セクション、および DPAの削除条項を確認します。
項目9:インシデント対応とSLA
確認事項:セキュリティインシデント発生時の通知義務・通知期限はどうなっているか? SLA(サービス水準合意)でアップタイム保証はあるか?
なぜ重要か:GDPRでは72時間以内の通知義務があり、日本でも個人情報保護委員会への速やかな報告が求められています。SLAはビジネス継続性の判断材料となります。
確認方法:DPAのインシデント通知条項、SLAドキュメントを確認します。
項目10:AI固有のリスク管理
確認事項:プロンプトインジェクション対策はあるか? 出力のコンテンツフィルタリングは実装されているか? ISO 42001(AI管理システム)への対応状況は?
なぜ重要か:AIサービスには従来のSaaSにはない固有のリスク(プロンプトインジェクション、ハルシネーション、有害出力など)があります。OWASP LLM Top 10で整理されているリスクに対する対策状況を確認することが重要です。
確認方法:ベンダーのセキュリティドキュメントで、AI固有のリスク対策について確認します。ISO 42001は2023年に策定されたAI管理システムの国際規格であり、取得しているベンダーはAIガバナンスへの積極的な姿勢を示しています。
主要AIサービスのセキュリティ評価比較【2026年3月時点】
ここでは、中小企業が導入を検討する可能性の高い主要4サービスについて、上記チェックリストの観点からセキュリティポリシーを比較します。
⚠️ 重要な注意
以下の情報は2026年3月時点の公開情報に基づいています。各サービスのポリシーは頻繁に更新されるため、契約前に必ず最新の公式ドキュメントを確認してください。また、同じサービスでもプランによってポリシーが大きく異なります。
ChatGPT(OpenAI)——プランごとの差異に要注意
| 評価項目 | ChatGPT Free / Plus | ChatGPT Team | ChatGPT Enterprise |
|---|---|---|---|
| 学習利用 | デフォルトで学習に使用(オプトアウト可) | デフォルトで学習に不使用 | デフォルトで学習に不使用 |
| データ保持 | 無期限(手動削除後30日で消去) | 管理者設定可能 | 管理者設定可能(最短90日〜)、ZDR交渉可 |
| 認証 | — | SOC 2 Type II | SOC 2 Type II |
| SSO | なし | なし | SAML SSO対応 |
| DPA | なし | あり | あり(カスタム可) |
| データレジデンシー | 選択不可 | 選択不可 | 米国・欧州・日本ほか選択可 |
| 監査ログ | なし | 限定的 | あり |
中小企業向けポイント:ChatGPTは世界で最も広く利用されているAIサービスですが、Free/Plusプランはデフォルトでデータが学習に使用されます。ビジネス利用にはTeamプラン以上が必須です。Teamプランは学習不使用がデフォルトですが、SSO非対応のため、アカウント管理の一元化には限界があります。EnterpriseプランではSSO、データレジデンシー、ZDR交渉が可能ですが、中小企業には価格面のハードルが高い場合があります。
なお、2025年6月以降、米国での著作権訴訟に伴う裁判所命令により、OpenAIは削除されたチャットデータを含む全ログの保持を一時的に義務付けられている点にも注意が必要です。
Claude(Anthropic)——セキュリティ認証の充実度が強み
| 評価項目 | Claude Free / Pro / Max | Claude for Work(Team / Enterprise) |
|---|---|---|
| 学習利用 | 設定によりオプトアウト可能(要確認) | デフォルトで学習に不使用 |
| データ保持 | オプトアウト時は30日保持後削除 | 管理者設定可能、ZDR交渉可 |
| 認証 | — | SOC 2 Type I & II、ISO 27001:2022、ISO/IEC 42001:2023、HIPAA(BAA可) |
| SSO | なし | SAML 2.0 / OIDC対応 |
| DPA | なし | あり |
| データレジデンシー | 選択不可 | AWS Bedrock / GCP Vertex AI経由でリージョン指定可 |
| 監査ログ | なし | あり |
中小企業向けポイント:AnthropicはISO/IEC 42001:2023(AI管理システム規格)を取得しており、AIガバナンスへの対応が進んでいます。Claude for Work(Team / Enterprise)では学習不使用がデフォルトです。2026年上半期にはBYOK(自社暗号鍵)対応も予定されており、規制産業への対応を強化しています。AWS BedrockやGoogle Cloud Vertex AI経由でのプライベートデプロイメントも可能なため、データ所在地の要件が厳しい企業にも対応できます。
Gemini for Google Workspace(Google)——Workspace統合とコンプライアンスの網羅性
| 評価項目 | Gemini(無料 / Advanced) | Gemini for Workspace(Business / Enterprise) |
|---|---|---|
| 学習利用 | データが品質改善に使用される場合あり(オプトアウト可) | デフォルトで学習に不使用(顧客の事前許可なしにモデル学習・改善に不使用) |
| データ保持 | 最大36か月保持の場合あり | 管理者設定可能、Workspace保持ポリシー準拠 |
| 認証 | SOC 2 / SOC 3 | SOC 1/2/3、ISO 27001、ISO 27017、ISO 27018、ISO 27701、ISO 42001、FedRAMP High |
| SSO | Googleアカウント | SAML SSO対応(Workspace管理) |
| DPA | Google利用規約 | あり(Workspace DPA) |
| データレジデンシー | 選択不可 | リージョン指定可能 |
| 監査ログ | 限定的 | あり(管理コンソール統合) |
中小企業向けポイント:Gemini for Google Workspaceは、業界でも最も包括的なコンプライアンス認証セットを持っています。すでにGoogle Workspaceを導入している中小企業にとって、追加のSSO設定や管理コンソールの導入が不要な点は大きなメリットです。WorkspaceのDLP(データ損失防止)、Vault(データ保持・検索)、クライアントサイド暗号化といった既存のセキュリティ機能がGeminiにもそのまま適用されます。ただし、Workspace Businessプラン以上が必要です。
Dify Cloud——オープンソース+クラウドの柔軟性
| 評価項目 | Dify Cloud(SaaS版) | Dify Self-hosted / Enterprise |
|---|---|---|
| 学習利用 | Dify自体はLLMプロバイダーではないため、接続先LLMのポリシーに依存 | 同左(自社APIキー利用) |
| データ保持 | AWS US-Eastリージョンにデータ保管 | 自社インフラで完全管理 |
| 認証 | SOC 2 Type I(Trust Center公開) | 自社インフラの認証に依存 |
| SSO | Enterprise版で対応 | SSO / 二要素認証対応 |
| DPA | Enterprise契約で対応 | 不要(自社管理) |
| データレジデンシー | US-East固定 | 自社で任意のリージョンに設置可能 |
| 監査ログ | 限定的 | 自社構成で対応可能 |
中小企業向けポイント:Difyは他の3サービスと性格が異なります。Difyは「AIアプリケーションの開発プラットフォーム」であり、LLM自体は外部のAPIを利用します。そのため、データの学習利用ポリシーは接続先のLLM(OpenAI API、Anthropic APIなど)に依存します。Dify Cloud(SaaS版)はUS-Eastにデータが保管されるため、日本のデータレジデンシー要件がある場合はセルフホスト版の検討が必要です。オープンソースであるため、セキュリティ要件が厳しい企業は自社インフラへのデプロイで完全にデータを管理できる点が最大の強みです。
セキュリティ認証の比較一覧
| 認証 | ChatGPT Enterprise | Claude for Work | Gemini for Workspace | Dify Cloud |
|---|---|---|---|---|
| SOC 2 Type II | ✅ | ✅ | ✅ | —(Type Iのみ) |
| ISO 27001 | ✅ | ✅(2022) | ✅ | — |
| ISO/IEC 42001(AI管理) | — | ✅(2023) | ✅ | — |
| HIPAA(BAA対応) | ✅ | ✅ | ✅ | — |
| FedRAMP | — | — | ✅(High) | — |
| GDPR DPA | ✅ | ✅ | ✅ | Enterprise版で対応 |
💡 ISO/IEC 42001とは?
2023年に策定されたAIマネジメントシステムの国際規格です。AIの開発・運用において、倫理的配慮、データガバナンス、透明性を体系的に管理するフレームワークを定めています。2026年8月にEU AI法が本格適用される中、この認証を取得しているベンダーはAIガバナンスへの積極的な姿勢を示していると言えます。
ベンダー評価の実務フロー——中小企業が実際にやるべきこと
ステップ1:利用目的とリスクレベルを定義する
AIに入力するデータの種類によって、要求されるセキュリティレベルは大きく異なります。
| リスクレベル | データの例 | 必要な対策 |
|---|---|---|
| 高 | 顧客個人情報、医療記録、財務データ、法務文書 | Enterprise契約必須、ZDR検討、DPA締結、データレジデンシー指定 |
| 中 | 社内文書の要約、営業資料の作成、議事録の整理 | Team/Business以上のプラン、学習オプトアウト確認 |
| 低 | 公開情報の調査、一般的な質問、ブレインストーミング | 無料/個人プランでも可(ただし業務利用はガイドライン必要) |
ステップ2:チェックリストを使ってベンダーを評価する
本記事の10項目チェックリストを使い、候補サービスを評価します。特に以下の3項目は「最低限の合格ライン」として設定することを推奨します。
必須3項目:
- ビジネスプランでデータの学習利用がデフォルトで無効であること
- SOC 2 Type IIまたはISO 27001の認証を取得していること
- DPA(データ処理契約)が締結可能であること
ステップ3:社内AI利用ガイドラインと連動させる
ベンダー評価の結果を、社内AI利用ガイドラインに反映させます。具体的には以下を定めます。
- 承認済みサービスリスト:評価を通過したサービスだけを業務利用可とする
- 入力禁止データの定義:どのデータは入力してよく、どのデータは禁止かを明確にする
- プラン指定:「ChatGPTを使ってよい」ではなく「ChatGPT Team以上で使ってよい」と明記する
- 定期レビュー:半年ごとにベンダーのポリシー変更を確認し、評価を更新する
この連動により、シャドーAIの発生を予防し、万が一のインシデント時にも「組織として適切な評価・管理を行っていた」ことを証明できます。
よくある質問(Q&A)
Q1. 無料プランのAIサービスをビジネスで使っても大丈夫?
原則として推奨しません。無料プランの多くはデータが学習に使用され、DPAの締結もできず、SSO・監査ログなどの管理機能もありません。ただし、公開情報の調査など機密性の低い用途であれば、社内ガイドラインで入力可能なデータの範囲を明確にした上で利用する余地はあります。
Q2. ChatGPT TeamとEnterpriseの違いは何ですか?
最大の違いはSSO(シングルサインオン)対応、データレジデンシー選択、ゼロデータリテンション(ZDR)の交渉可否です。Teamプランでもデータの学習不使用はデフォルトで保証されますが、SSOが使えないため、退職者のアクセス無効化は手動になります。従業員の入れ替わりが頻繁な企業や、厳格なアクセス管理が求められる業種ではEnterpriseプランの検討が必要です。
Q3. Dify Cloudはデータの学習に使われますか?
Dify自体はLLMプロバイダーではなく、AIアプリケーション開発プラットフォームです。そのため、データの学習利用ポリシーは、Difyを通じて接続するLLMプロバイダー(OpenAI API、Anthropic API、Google API等)のポリシーに従います。Dify Cloud上のアプリケーションデータはAWS US-Eastに保管されます。データ所在地の制約がある場合は、セルフホスト版を自社インフラにデプロイすることで完全にコントロールできます。
Q4. SOC 2 Type IとType IIの違いは何ですか?
SOC 2 Type Iは「ある時点でセキュリティ統制が適切に設計されているか」を評価するスナップショット監査です。SOC 2 Type IIは「一定期間(通常3〜12か月)にわたって統制が有効に運用されていたか」を評価します。Type IIの方が信頼性が高く、企業間取引のベンダー評価ではType IIが求められることが一般的です。
Q5. EU AI法は日本の中小企業にも影響がありますか?
EU域内の顧客にAI生成コンテンツを提供する場合は影響があります。EU AI法は2026年8月から本格適用され、AIで生成・操作されたコンテンツの明示義務や透明性義務が課されます。直接的にEU市場を対象としていない場合でも、グローバルなベンダーのポリシー変更を通じて間接的な影響を受ける可能性があります。詳しくはAI生成コンテンツと著作権の記事をご覧ください。
まとめ——「どのAIを使うか」は経営判断
AIサービスの選定は、もはやIT部門だけの判断ではありません。顧客データの取り扱い、コンプライアンス、ビジネス継続性——これらすべてに関わる経営判断です。
本記事のポイントを3つにまとめます。
1. 契約前にチェックリストで評価する。学習ポリシー、データ保持、認証取得、解約時の削除保証——これらは「使い始めてから」では確認が遅い項目です。本記事の10項目チェックリストを、ベンダー選定プロセスに組み込んでください。
2. プラン名ではなく、具体的なポリシーで判断する。「ChatGPTを使っている」「Claudeを使っている」だけでは安全性は分かりません。どのプランで、どの設定で使っているかまで踏み込んだ確認が必要です。
3. ベンダー評価と社内ガイドラインをセットで運用する。評価を通過したサービスだけを承認リストに載せ、入力可能なデータ範囲を明確にし、定期的にポリシー変更を確認する——この仕組みがシャドーAIを防ぎ、ゼロトラストの考え方と整合するAI利用体制を実現します。
関連記事
- 中小企業のためのAI利用ガイドライン策定ガイド
- シャドーAI対策——社員の無断AI利用をどう防ぐか
- OWASP LLM Top 10——AIアプリケーションのセキュリティリスク
- ゼロトラスト×AI——生成AIをゼロトラストアーキテクチャに組み込む方法
- RAGとは?——AIをもっと賢く使うための仕組み
- MCPサーバーの構築と活用——AIと外部ツールを安全につなぐ
- MCPサーバーカタログ——目的別おすすめMCPサーバー一覧
- AI生成コンテンツと著作権——知っておくべき法律・判例・実務対応
免責事項:本記事は2026年3月時点の公開情報に基づく情報提供であり、法的アドバイスやセキュリティコンサルティングではありません。各AIサービスのポリシーは頻繁に更新されるため、契約前に必ず最新の公式ドキュメントを確認してください。具体的なセキュリティ対策や法的判断については、専門家にご相談ください。

コメント