「AI利用ガイドラインを整備した。でも、実際に守られているかどうかわからない」——これが2026年現在、AI導入を進めた企業の情シス・IT担当者が直面するリアルな悩みです。
ChatGPT・Claude・Gemini等の生成AIは、従業員のPCにインストール不要でブラウザから即座に使えます。会社支給のPCだけでなく、私用スマートフォンからも、無料アカウントでも使えます。「禁止します」と言っても、技術的に防ぎきることは非常に難しい——これが生成AIの性質です。
だからこそ必要なのが、「禁止」ではなく「把握・管理・改善」のサイクルです。誰がどのAIツールを使い、どんな情報を入力しているか。ガイドライン違反がないか。情報漏洩リスクになる入力がないか。これを可視化する仕組みが「AI利用ログ管理」です。
この記事では、
- 企業がAI利用ログを取得・管理する法的根拠とプライバシーとのバランス
- ChatGPT Team/Enterprise・Claude for Work等の管理者機能の活用方法
- ネットワーク・エンドポイントレベルでのログ取得手法
- インシデント発生時のログ活用と証拠保全
- 小規模組織でもできる簡易監査フロー
- 従業員のプライバシーとの適切なバランスの取り方
を、情シス・IT担当者・コンプライアンス担当者の実務目線で解説します。
- 1. なぜ「AI利用ログ管理」が必要なのか——リスクの全体像
- 2. 法的根拠と従業員プライバシーのバランス——「監視」にならないための設計
- 3. ChatGPT Team/Enterpriseの管理者機能を活用したログ管理
- 4. Claude for Work(Anthropic)の管理者機能
- 5. ネットワーク・エンドポイントレベルのログ取得——管理コンソールを超えた監視
- 6. 小規模組織でもできる「簡易AI監査フロー」
- 7. インシデント発生時のログ活用——証拠保全と事後調査
- 8. 従業員への説明と理解醸成——「監視」でなく「共通ルール」として伝える
- 9. AI利用ログ管理に関連する法令・ガイドライン
- 10. よくある質問(Q&A)
- 11. まとめ——「把握できる組織」が「安心して使える組織」になる
- 関連記事
1. なぜ「AI利用ログ管理」が必要なのか——リスクの全体像
AI利用ログ管理が必要な5つの理由
| リスク | 具体的なシナリオ | ログがないと |
|---|---|---|
| 機密情報の漏洩 | 営業担当者が顧客情報・契約金額を含むメールをChatGPTに貼り付けて要約させた | 漏洩事実を把握できず、インシデント報告も対策も遅れる |
| 個人情報保護法違反 | 人事担当者が採用候補者の履歴書全文を外部AIに入力して評価させた | 本人同意なしの第三者提供として違反リスク。発覚後の事実確認が不可能 |
| 知的財産の流出 | 開発者が未公開のソースコード・設計仕様書をAIに入力してレビューさせた | 競合への流出リスクを認識・対処できない |
| AI生成物の無検証利用 | 新入社員がAI生成の報告書をそのまま上長に提出、誤った情報が意思決定に使われた | 問題発覚時に経緯の追跡ができず、再発防止策を打てない |
| 不正利用・シャドーIT | 業務と無関係な個人的な用途(副業・転職活動等)に会社のリソースでAIを使っている | 不正利用の規模・深刻度を把握できない |
「禁止」よりも「管理」が現実的な理由
多くの企業が最初に検討するのが「生成AIのURLをプロキシでブロックする」という禁止策です。しかしこれには限界があります。
- 私用スマートフォンへの対応が困難(モバイルデータ通信経由は制御できない)
- AIサービスのドメインは増え続けており、ホワイトリスト管理が追いつかない
- 業務効率化の機会を失い、優秀な人材のモチベーション低下につながる
- 「禁止されているから使わない」ではなく「ばれないように使う」行動を招く
実際、「全面禁止」から「管理された許可」へ方針を転換する企業が増えています。利用を認めた上で、何をしているかを把握し、問題があれば指導・改善するというサイクルが、長期的なリスク低減に効果的です。
2. 法的根拠と従業員プライバシーのバランス——「監視」にならないための設計
企業がAI利用ログを取得する法的根拠
会社支給のPCや会社のネットワークにおける従業員の業務上の行動を記録・確認することには、以下の法的根拠があります。
① 労働契約上の指揮命令権
使用者は労働契約に基づき、業務上の指揮命令を行う権限を持ちます。会社の情報資産(PC・ネットワーク・AIアカウント)の利用状況を把握・管理することは、この指揮命令権の範囲内と解されています。
② 情報セキュリティ管理義務
個人情報保護法・不正競争防止法・サイバーセキュリティ基本法等の観点から、企業は自社が保有する情報の適切な管理義務を負います。この義務の履行のためにログ取得が必要と説明できます。
③ 就業規則・情報セキュリティポリシーへの明記
従業員に対してログ取得・モニタリングを行う場合は、就業規則または情報セキュリティポリシーへの明記と、従業員への周知が前提条件です。「知らないうちに監視されていた」という状況は、労使間のトラブルの原因になります。
従業員プライバシーとのバランス——3つの原則
厚生労働省の「労働者の個人情報保護に関するガイドライン」や裁判例を踏まえ、モニタリングが適法と認められるためには以下の要件を満たすことが重要です。
- 目的の明確化・限定:
- ログ取得の目的を明確にする(例:「機密情報の外部AIへの不適切な入力を防止するため」)
- 取得したログの利用目的を目的外に使わない(人事評価への流用等は原則NG)
- ログの保存期間を定め、期間経過後は適切に廃棄する
- 必要最小限の取得:
- 「何のサービスにいつアクセスしたか」(URLログ)と「何を入力したか」(プロンプトログ)では、プライバシー侵害の度合いが大きく異なる
- プロンプトの内容まで取得する場合は、特に明確な根拠と開示が必要
- まずアクセスログから始め、問題が発生した場合に限り詳細ログを参照する段階的設計が望ましい
- 透明性の確保(事前告知):
- 「会社はAI利用ログを取得・確認することがある」を就業規則・AI利用規程に明記する
- 入社時・規程改定時に説明し、従業員の認識を確保する
- 具体的にどのようなログを取るかを示す(「AIサービスへのアクセス履歴」「入力した内容の要約」等)
重要:本記事は一般的な情報提供を目的としており、法的アドバイスではありません。モニタリング施策の設計・導入にあたっては、社内法務・外部弁護士に相談してください。特にプロンプト内容の取得は法的リスクが高いため、専門家の判断を仰いでください。
就業規則・AI利用規程に記載すべき「ログ管理条項」のサンプル
【AI利用規程 第〇条(利用ログの取得・管理)】
1. 会社は、情報セキュリティの確保および本規程の遵守状況の確認を目的として、
従業員による生成AIサービスの利用に関する以下のログを取得・保存することができる。
① 会社のネットワークおよび会社支給機器を通じた生成AIサービスへのアクセス履歴
② 会社が管理するAIアカウント(ChatGPT Team、Claude for Workなど)の利用履歴
2. 取得したログは、本規程の遵守状況確認およびセキュリティインシデントの調査・対応
の目的にのみ使用し、人事評価その他の目的に利用しない。ただし、重大な規程違反が
確認された場合はこの限りでない。
3. 取得したログは〇年間保存し、保存期間経過後は適切に廃棄する。
4. 従業員は、会社支給の機器および会社のネットワークを利用する際に、
上記のログ取得が行われることを理解し、業務に関係しない情報の入力等を行わないこと。
3. ChatGPT Team/Enterpriseの管理者機能を活用したログ管理
ChatGPT Teamプランの管理者機能
ChatGPT Teamプラン(月額$25/ユーザー〜)は、個人プランにはない管理者向け機能を提供しています。情シス担当者が把握しておくべき機能を整理します。
| 機能 | できること | ログ管理への活用 |
|---|---|---|
| 管理コンソール(Admin Console) | ユーザーの追加・削除・ロール管理。利用状況のダッシュボード表示 | 誰がどの程度使っているかを把握。退職者アカウントの即時無効化 |
| ドメイン制限 | 特定のメールドメインのみ参加可能に制限 | 私用アカウントとの分離。会社アカウントからの利用に限定 |
| データ学習のオプトアウト | Teamプランでは全会話がOpenAIの学習に使われない | データ保護の基盤として重要。個人プランとの最大の違い |
| カスタム指示の管理 | 全ユーザー共通の行動指針(System Prompt)を管理者が設定可能(Enterprise) | 「機密情報を入力しないこと」等のガイダンスをAI側からも提示 |
| GPTs/カスタムGPTの管理 | 社内で使えるカスタムGPTをホワイトリスト化 | 外部公開のGPTSへの社内データ入力リスクを低減 |
ChatGPT Enterpriseのログ・コンプライアンス機能
ChatGPT Enterpriseプランでは、Teamプランを超えたコンプライアンス・ログ機能が利用可能です。
- 会話ログのエクスポート:管理者は全ユーザーの会話ログをエクスポートし、社内のSIEM・ログ管理システムに取り込むことができます(要設定)
- SSO(シングルサインオン)との統合:Okta・Azure ADと連携し、認証ログをIDaaSに統合管理
- SCIM(自動プロビジョニング):HR・IT管理システムとの連携でアカウントの自動追加・削除。退職者アカウントの即時無効化が自動化
- SOC 2 Type II準拠:エンタープライズのセキュリティ・コンプライアンス要件に対応した監査証跡の提供
管理者コンソールの設定チェックリスト(Teamプラン)
- ☐ 管理者アカウントの二要素認証(2FA)を有効化
- ☐ ユーザー招待をドメイン制限(会社メールアドレスのみ)に設定
- ☐ データ保持ポリシーを確認・設定(会話履歴の保存期間)
- ☐ 月次でアクティブユーザー数・利用状況を確認する担当者を指定
- ☐ 退職者発生時のアカウント無効化手順を情シス対応フローに組み込む
- ☐ 外部公開GPTsへのアクセス制限を検討(Enterpriseプランで設定可能)
- ☐ 利用統計レポートの定期確認スケジュールを設定(月1回推奨)
4. Claude for Work(Anthropic)の管理者機能
Claude for Workの管理機能概要
Anthropicの法人向けプラン(Claude for Work)は、Team・Enterpriseの2段階で提供されています。
| 機能 | Team | Enterprise |
|---|---|---|
| 管理コンソール | ○(基本的なユーザー管理) | ◎(高度な管理機能) |
| データ学習への不使用 | ◎(全会話) | ◎(全会話) |
| SSO/SCIM連携 | × | ◎(Okta・Azure AD等) |
| 監査ログのエクスポート | 限定的 | ◎(詳細な監査ログ) |
| Claude Projectsの管理 | ○(チーム共有) | ◎(管理者による制御) |
| カスタムシステムプロンプト | プロジェクト単位 | ◎(組織全体に適用可能) |
Claude for Workで特に有効な管理施策
Projects機能を使ったアクセス制御:
Claude Projectsは「特定の情報・指示を与えた専用AI」を作る機能ですが、同時に「使える情報の範囲を限定したAI」としても活用できます。部門別・用途別にProjectsを作り、それぞれに「このProjectでは外部の機密情報を入力しないこと」等の指示を組み込むことで、利用範囲を意識させる設計ができます。
システムプロンプトによるガードレール:
Enterpriseプランでは、全ユーザーに共通するシステムプロンプトを管理者が設定できます。例えば以下のような指示を組み込みます。
【管理者設定システムプロンプトの例】
あなたは〇〇株式会社の社内業務支援AIです。
以下のルールを常に守り、ユーザーがルールを守れるよう案内してください。
【入力してはいけない情報】
・顧客の個人情報(氏名・住所・電話番号・メールアドレス等)
・未発表の製品情報・技術仕様
・契約金額・財務情報
・パスワード・APIキー等の認証情報
ユーザーが上記の情報を含む内容を入力しようとした場合は、
「その情報は社内AIポリシーにより入力できません。情報を匿名化・一般化してから入力してください」
と案内してください。
5. ネットワーク・エンドポイントレベルのログ取得——管理コンソールを超えた監視
なぜ管理コンソールだけでは不十分か
ChatGPT TeamやClaude for Workの管理コンソールは、「会社が契約したアカウントでの利用」しか把握できません。従業員が個人アカウント(無料プラン)で同じAIサービスを使ったり、別の生成AIサービスを使ったりする場合は見えません。
より網羅的なAI利用の把握には、ネットワーク・エンドポイントレベルの監視が有効です。
プロキシ・ゲートウェイを使ったURLアクセスログ
最もシンプルなアプローチは、社内プロキシサーバーまたはSASE(Secure Access Service Edge)環境でのURLアクセスログ取得です。
取得できる情報:
- どのユーザー(IPアドレス・ユーザーアカウント)が
- いつ(日時)
- どのAIサービス(URL)に
- どのくらいの頻度でアクセスしたか
取得できない情報:
- 何を入力したか(HTTPSのため、プロキシでもプロンプト内容は原則見えない)
主要なAIサービスのドメインリスト(監視対象として登録推奨):
# 主要生成AIサービスのドメイン一覧(2026年3月時点)
chat.openai.com
chatgpt.com
api.openai.com
claude.ai
anthropic.com
gemini.google.com
copilot.microsoft.com
perplexity.ai
character.ai
huggingface.co
cohere.com
mistral.ai
groq.com
# 定期的に更新が必要(新規AIサービスへの対応)
CASB(Cloud Access Security Broker)の活用
中規模以上の企業では、CASB(クラウドアクセスセキュリティブローカー)の導入が最も包括的なAI利用監視を実現します。
| 機能 | AI利用監視への活用 |
|---|---|
| クラウドサービスの可視化 | 社内で使われているAIサービスを全て列挙。シャドーITの把握 |
| アクセス制御 | 承認済みAIサービスのみ許可(ホワイトリスト方式)、またはリスクスコアが高いサービスをブロック |
| DLP(データ漏洩防止)との連携 | 個人情報・機密情報のパターン(クレジットカード番号・マイナンバー等)が含まれるアップロードを検知・ブロック |
| ユーザー行動分析(UEBA) | 通常とは異なるアクセスパターン(深夜の大量ファイルアップロード等)を異常として検知 |
主要CASBソリューション(AI対応):
- Microsoft Defender for Cloud Apps:Microsoft 365環境との親和性が高い。AI利用のレポートとポリシー設定が充実
- Netskope:生成AIのカテゴリ別ポリシー設定が業界最高水準。プロンプト内容のDLPスキャンに対応
- Zscaler Internet Access:ZTNAとの統合でリモートワーク環境のAI利用も一元管理
エンドポイントDLPの活用
端末レベルでのDLP(データ損失防止)ツールを使うと、ブラウザへの貼り付け行為を検知できます。
- 機密情報の分類タグが付いたファイルの内容が、AIサービスのURLにアップロード・貼り付けされた場合にアラートを発出
- Windows環境ではMicrosoft Purview Information Protection(旧Azure Information Protection)が有効
- macOS環境ではサードパーティのエンドポイントDLPツール(Nightfall AI等)が選択肢になります
6. 小規模組織でもできる「簡易AI監査フロー」
CASBやエンタープライズツールを持たない組織のための現実的アプローチ
従業員50名以下の中小企業・スタートアップには、エンタープライズグレードのCASBを導入するコスト・人手がないのが現実です。以下は最小限のコストと工数で実施できる簡易監査フローです。
Level 1:今すぐできる「ゼロコスト監査」
Step 1:AI利用実態の自己申告アンケート(月1回)
GoogleフォームまたはMicrosoft Formsで以下の質問を従業員に送信し、集計します。
【AI利用状況確認アンケート(月次)】
1. 今月、業務でAIツールを使用しましたか?
☐ はい ☐ いいえ
2. 使用したツールをすべて選んでください(複数選択可)
☐ ChatGPT(無料) ☐ ChatGPT Team/Plus
☐ Claude ☐ Gemini ☐ Microsoft Copilot
☐ その他( )
3. 主にどんな業務で使いましたか?
☐ 文章作成・メール下書き
☐ 翻訳・校正
☐ プログラミング・コードレビュー
☐ 情報収集・調査
☐ データ分析
☐ その他( )
4. 社内規程に従って、機密情報・個人情報の入力を避けましたか?
☐ はい、避けました
☐ 一部、確信が持てない場合がありました
☐ よくわからない部分がありました
5. AI利用で不明な点・困ったことがあれば記入してください。(任意)
「確信が持てない場合があった」と回答した従業員には、個別にフォローアップを行い、具体的な状況を確認します。これだけでも、ポリシー違反の早期発見と教育機会の創出が可能です。
Step 2:ChatGPT Team管理コンソールの月次確認(30分/月)
- アクティブユーザー数が予想と乖離していないか
- 退職者のアカウントが無効化されているか
- 異常に高い利用頻度のユーザーがいないか
Step 3:ランダムサンプリングによる利用内容確認(四半期1回)
就業規則・AI利用規程にログ確認の権限を明記した上で、四半期に1度、ランダムに選んだ数名の利用履歴をChatGPT TeamまたはClaude for Workの管理コンソールで確認します。問題のある入力が見つかった場合は個別指導・教育の機会とします。
Level 2:ルーターログを活用した「プチCASB」
多くのビジネスグレードのルーター・UTM(統合脅威管理)には、URLフィルタリングとアクセスログ機能が標準搭載されています。
- FortiGate・Sophos・WatchGuard等のUTM:カテゴリ別のWebフィルタリングで「AI・チャットサービス」カテゴリのアクセスログを自動取得
- Cisco Umbrella・DNSフィルタ:DNSクエリレベルでのAIサービスへのアクセスを記録。エンドポイントにエージェント不要
- 取得したログの保存:3〜6か月分のログを保存しておくことで、インシデント発生時の事後調査に活用できます
簡易監査の年間カレンダー
| タイミング | 実施内容 | 担当 | 所要時間 |
|---|---|---|---|
| 毎月 | 自己申告アンケートの送付・集計・フォローアップ | 情シス / 総務 | 1〜2時間/月 |
| 毎月 | ChatGPT Team/Claude管理コンソールの確認 | 情シス | 30分/月 |
| 四半期 | ランダムサンプリングによる利用内容確認 | 情シス + コンプライアンス担当 | 2〜4時間/四半期 |
| 四半期 | AI利用規程の見直し・アップデート検討 | 情シス + 法務/総務 | 2〜3時間/四半期 |
| 半期 | 全社向けAI利用研修・ポリシーアップデートの周知 | 情シス + HR | 1〜2時間の研修 |
| 年次 | AI利用規程の包括的レビュー・改定 | 情シス + 法務 + 経営層 | 半日〜1日 |
7. インシデント発生時のログ活用——証拠保全と事後調査
AI関連インシデントの主要パターンと対応フロー
ケース①:機密情報の外部AI入力が発覚した場合
- 事実確認(24時間以内):
- ChatGPT Team管理コンソール / ネットワークログで入力の事実・内容を確認
- 入力された情報の種類・量・秘密性のレベルを評価
- 使用したAIサービスのデータポリシーを確認(学習に使われたか否か)
- 被害範囲の評価(48時間以内):
- 入力された情報が顧客の個人情報を含む場合、個人情報保護委員会への報告要否を法務と確認
- 営業秘密(不正競争防止法)に該当する情報の場合、法的対応の選択肢を検討
- 当事者への対応:
- 故意か過失か・悪意があるかを確認。多くの場合は「ルールを知らなかった」「便利だから」という過失
- 懲戒処分の前に、規程の認識・教育状況を確認する(就業規則の手続きに従う)
- 再発防止:
- 同様の状況が他の従業員でも起きていないか全体確認
- 技術的対策(DLPルールの追加等)と教育・研修の実施
ケース②:AI生成の誤情報が社外に発信された場合
- 誤情報が含まれた文書・コンテンツの特定とトレースバック(誰が・いつ・どのAIで生成したか)
- 誤情報の範囲と影響度の評価(社外公開の規模・メディア・取引先等)
- 訂正・謝罪対応の要否判断
- AI生成コンテンツの確認フロー(公開前の人間によるファクトチェック)の強化
ログの証拠保全における注意点
インシデント発生時、ログを証拠として活用するためには以下の点が重要です。
- 改ざん防止:ログは読み取り専用の領域に保存し、管理者であっても容易に削除・修正できない設定にする。タイムスタンプの信頼性確保(NTP同期・タイムスタンプサービスの利用)
- 証拠の完全性:ログを移送・コピーする際にハッシュ値(SHA-256等)を記録し、改ざんがないことを証明できる状態を維持
- 保管期間:労働関係訴訟の時効(3年)、不法行為の時効(損害認知から3年、行為から20年)を考慮し、最低3年間の保存を推奨
- アクセス制限:ログ自体へのアクセスを情シス責任者・法務担当者等に限定。ログへのアクセス自体もログを取る(ログのログ)
8. 従業員への説明と理解醸成——「監視」でなく「共通ルール」として伝える
なぜ「伝え方」が重要か
技術的なログ管理体制を整えても、従業員が「監視されている」という不信感を持つと、モチベーション低下・優秀な人材の離脱につながります。ログ管理の目的と範囲を正直に・丁寧に説明することが、長期的な組織の健全性のために必要です。
社内説明で使えるコミュニケーションフレーム
以下のフレームで従業員に説明することを推奨します。
「なぜログ管理をするのか」の説明例(全社向けアナウンス用)
当社ではAIツールの業務活用を積極的に推進しています。その一方で、顧客情報・技術情報等の機密データを意図せず外部AIに入力してしまうリスクがあります。
このリスクに対応するため、会社支給機器・会社ネットワークを通じたAIサービスの利用ログを取得・保存する仕組みを導入します。
取得するのは「いつ・誰が・どのサービスにアクセスしたか」という利用履歴であり、プライベートな内容を覗き見るものではありません。取得したログは情報セキュリティ管理の目的のみに使用し、人事評価等には使用しません。
AIの便利さを安心して活用するための「共通ルール」として、ご理解とご協力をお願いします。
AI利用に関するよくある従業員の疑問と回答例
| 疑問 | 推奨する回答 |
|---|---|
| 「個人のスマホからAIを使うのも監視されますか?」 | 会社のネットワーク・機器を使わない個人端末の利用は監視の対象外です。ただし、個人端末であっても会社の機密情報を入力することはポリシー違反です |
| 「AIに何を入力したか、上司や人事に見られますか?」 | ログは情シス部門とコンプライアンス担当のみがアクセスできます。セキュリティインシデントが発生した場合を除き、内容を上司や人事が閲覧することはありません |
| 「私用でAIを使うのは規程違反ですか?」 | 会社支給機器での私的利用は就業規則の定めに従います。業務に差し支えない範囲での軽微な私的利用については〔各社の方針に従って〕 |
| 「AIを使ったことで評価が下がりませんか?」 | 適切な利用は推奨しており、利用自体で評価が下がることはありません。ポリシー違反(機密情報の入力等)があった場合は指導の対象になります |
9. AI利用ログ管理に関連する法令・ガイドライン
情シス担当者が把握すべき関連法令
| 法令・ガイドライン | AI利用ログ管理との関係 |
|---|---|
| 個人情報保護法 | 従業員のAI利用ログは「従業員に関する情報」として個人情報に該当する可能性がある。取得目的の明示・適切な管理・目的外利用の禁止が必要 |
| 不正競争防止法 | 営業秘密がAIに入力・漏洩した場合の法的対応の根拠。ログはその証拠として機能する |
| 電気通信事業法 | 社内ネットワーク上の通信内容の監視・傍受については法的制約がある。URLログ(通信の宛先)は原則適法だが、通信内容(プロンプト)の取得は要注意 |
| 不正アクセス禁止法 | 従業員の私用端末への無断アクセスは違法。会社支給機器への管理目的のアクセスは就業規則への明記が前提 |
| 労働契約法・労働基準法 | モニタリングが「業務上の合理的な必要性」の範囲を超える場合、プライバシー侵害として損害賠償請求の対象になりえる |
| デジタル庁「生成AI利用ガイドライン」 | 国の機関向けだが、民間企業のポリシー策定の参考として広く活用されている |
10. よくある質問(Q&A)
Q1. 従業員が私用の無料ChatGPTで機密情報を入力していた場合、会社は把握できますか?
会社支給のPCで会社のネットワークを使っていた場合は、プロキシ・ルーターのアクセスログで「chat.openai.comへのアクセスがあった」ことは把握できます。しかし、何を入力したかは原則としてHTTPS通信のため見えません。また、私用スマートフォンのモバイルデータ通信経由での利用は会社側では把握できません。技術的な把握の限界と従業員への教育・ルールの徹底を組み合わせることが現実的な対策です。
Q2. プロンプトの内容(何を入力したか)まで取得・確認することは合法ですか?
会社支給機器・会社ネットワーク上での通信であっても、プロンプト内容(通信の「内容」)の傍受・記録は電気通信事業法上のリスクを伴う可能性があります。取得する場合は就業規則への明記・従業員への告知が前提となり、かつその必要性・合理性が求められます。ChatGPT Enterprise等のサービスが管理者向けにログエクスポート機能を提供しており、「サービス事業者が提供するログ」を管理者として取得する形式の方がリスクが低いとされています。必ず法務・弁護士に相談してください。
Q3. AIのログ管理を始める前に就業規則の改定は必須ですか?
既存の就業規則に「会社支給機器・ネットワークの利用状況を確認できる」旨の条項がある場合は、その範囲でログ取得が可能な場合があります。ただし、AI利用に特化したログ取得を新たに開始する場合は、就業規則またはAI利用規程への明記と従業員への周知が強く推奨されます。就業規則の変更は労働基準法上の手続き(過半数代表への意見聴取・労基署への届出)が必要です。
Q4. 退職した従業員のAI利用ログはいつまで保管すべきですか?
退職者の個人情報・勤務記録の保管については、退職後3〜5年を目安とする企業が多いです(労働関係訴訟の時効を考慮)。ただし、重大なセキュリティインシデントに関連するログは、案件が解決するまで保管が必要なケースがあります。保管期間ポリシーを文書化し、期間経過後は適切に廃棄する仕組みを設計してください。
Q5. AIのログ管理と個人情報保護方針(プライバシーポリシー)の関係は?
従業員向けのプライバシーポリシー(社内向け)または就業規則において、AI利用ログの取得・管理について言及することを推奨します。外部向けのプライバシーポリシー(顧客向け)については、AIを使った顧客データの処理がある場合に記載が必要になります。いずれも法務・プライバシーコンサルタントに確認してください。
11. まとめ——「把握できる組織」が「安心して使える組織」になる
AI利用ログ管理の要点を整理します。
| 規模・フェーズ | 今すぐやること | 次のステップ |
|---|---|---|
| スモール(〜50名) | 月次自己申告アンケートの実施、ChatGPT Team管理コンソールの月次確認 | AI利用規程へのログ管理条項の追加、UTMのURLログ有効化 |
| ミディアム(50〜300名) | ChatGPT Enterprise/Claude for WorkのSSO連携、四半期ごとのサンプル監査 | CASB(Microsoft Defender for Cloud Apps等)の導入、DLPポリシーの設定 |
| エンタープライズ(300名〜) | CASBとSIEMの統合、AI利用の監査ログの自動収集、インシデント対応手順の整備 | AI利用の内部監査を年次監査に組み込む、第三者監査の検討 |
本件は「監視」が目的ではありません。「把握」によって、従業員が安心してAIを使える環境を作ることが目的です。ルールを作り、ログを取り、問題を早期に発見し、教育につなげる——このサイクルが回り始めると、AIリスクは管理可能なものになります。
関連記事
- 社内AI利用ガイドライン・規程の作り方【テンプレート付き】
- AIエージェント運用・監視・ガバナンスガイド
- OWASP Top 10 for LLM Applications——LLMセキュリティの基礎知識
- ChatGPT Enterprise導入ガイド——管理者設定と運用のベストプラクティス
免責事項:本記事は2026年3月時点の情報に基づく一般的な情報提供であり、法的アドバイスではありません。従業員モニタリング・ログ管理の設計・導入にあたっては、社内法務部門または外部弁護士・社会保険労務士に相談してください。個人情報の取り扱い・就業規則の変更については、各種法令の最新情報をご確認ください。

コメント