はじめに——「AIで採用を効率化」の裏にある法的地雷原
AIによる採用プロセスの自動化が急速に広がっています。米国では、雇用機会均等委員会(EEOC)の推計として「フォーチュン500社の99%が採用候補者のスクリーニングに何らかの自動化ツールを使用している」という数字が引用されています。日本でもソフトバンクのエントリーシートAI選考、PeopleXのAI面接サービスなど、実用例が増えてきました。
しかし、採用領域のAI活用は、他のどの業務領域よりも法的リスクが集中する地雷原です。その理由は明確で、採用AIは「個人の人生を左右する判断」に直接関与するからです。
2018年にはAmazonがAI採用ツールの女性差別を認め運用を中止。2019年にはAI面接ツール「HireVue」の差別的評価が米連邦政府に申し立てられました。2023年には米ワークデイのAI選考ツールが人種・年齢・障害差別で集団訴訟を起こされています。
そして2026年8月、EU AI法(AI Act)のハイリスクAIシステムに関する規定が本格適用されます。採用・雇用分野のAIは「ハイリスク」に明確に分類されており、違反した場合の制裁金は最大で全世界年間売上高の3%または1,500万ユーロです。
この記事では、AI×採用の法的リスクをバイアス・差別、個人情報保護法、EU AI法、日本の労働法の4つの軸で整理し、企業の人事部門・法務部門が「今すぐ確認すべきチェックリスト」を提供します。
AI採用ツールの現状——何がどこまで自動化されているのか
採用プロセスにおけるAI活用マップ
採用プロセスのどの段階で、どのようなAIが使われているかを整理します。
| 採用プロセスの段階 | AIの活用内容 | 主なツール例 | 法的リスクレベル |
|---|---|---|---|
| 求人票の作成 | 職務記述書のAI生成、ジェンダーニュートラルな表現チェック | ChatGPT、Textio | 低 |
| 候補者の母集団形成 | 求人広告のAIターゲティング、候補者サーチ | LinkedIn Recruiter、Indeed AI | 中(ターゲティングによる排除リスク) |
| 書類選考(スクリーニング) | 履歴書・ESの自動スコアリング、キーワード抽出 | 各社ATS(応募者追跡システム) | 高 |
| 適性検査・アセスメント | 性格特性・認知能力のAI分析、ゲーム型アセスメント | SHL、Pymetrics | 高 |
| AI面接 | 録画面接の音声・表情・言語分析によるスコアリング | HireVue、PeopleX、ZENKIGEN | 極めて高 |
| 最終判断の支援 | 候補者の総合スコアリング、合否の推薦 | 各社独自ツール | 極めて高 |
法的リスクは、AIが「人間を評価・選別する判断」に近づくほど高くなります。求人票の文章生成は低リスクですが、AIが候補者を合否判定する段階になると、差別・バイアス・個人情報保護のすべてが交差する最高リスク領域に入ります。
リスク軸①:バイアスと差別——AIは「公平な審判」ではない
なぜAIはバイアスを持つのか
AIは学習データから「パターン」を学びます。採用AIの場合、過去の採用データ(誰が採用され、誰が不採用になったか)を学習するため、過去の採用実績に内在するバイアスをそのまま再現・増幅します。
Amazon事件(2014〜2017年)の教訓:Amazonは履歴書をAIで自動スコアリングするシステムを開発しましたが、過去10年間の応募者データ(男性が圧倒的に多い)を学習した結果、「女子大」など女性に関連する用語がある履歴書の評価を低くする傾向が発覚しました。性別を直接的な評価項目にしていなくても、AIは間接的な相関(出身大学、使用する言葉のパターンなど)から性別を推定し、差別的な判定を行っていたのです。
AIバイアスの3つのパターン
パターン1:歴史的バイアス
過去の採用データが「男性が多い」「特定の大学出身者が多い」といった偏りを持っていれば、AIはそれを「望ましい候補者像」として学習します。データに明示的な差別意図がなくても、社会構造上の不平等がデータに反映されている限り、AIはそれを再現します。
パターン2:測定バイアス
AI面接ツールが音声のトーン、表情、話し方のパターンを評価する場合、文化的背景や障害の有無によって評価が偏る可能性があります。HireVueの事例では、特定の表情や声のトーンに高評価を付ける傾向が報告され、マイノリティの応募者が不利になっていたとの指摘がありました。
パターン3:交差バイアス(Intersectional Bias)
「女性」+「30代」+「子どもがいる」のように、複数の属性が交差した場合にのみ顕著になるバイアスです。単一属性のバイアス検出では見つからないため、検出が困難です。富士通が2021年に発表した「交差バイアス緩和技術」のように、複合属性のバイアスに対応する技術研究が進んでいます。
日本の法的枠組み:採用差別に関する規制
日本には採用AIを直接規制する法律はまだありませんが、以下の法令・指針がAI採用にも適用されます。
| 法令・指針 | 関連する規制内容 | AI採用への適用 |
|---|---|---|
| 労働基準法第3条 | 国籍、信条、社会的身分を理由とする差別的取扱いの禁止 | AIが間接的にこれらの属性に基づく判定を行った場合も違反の可能性 |
| 男女雇用機会均等法 | 性別を理由とする採用差別の禁止 | AIが性別と相関する要素(出身大学、職歴パターン等)で判定した場合のリスク |
| 障害者雇用促進法 | 障害者に対する差別の禁止、合理的配慮の提供義務 | AI面接が音声・表情分析で障害者を不利に評価するリスク |
| 職業安定法第5条の5 | 求職者の個人情報の適切な取扱い | AIに入力する候補者データの収集・利用の適法性 |
| 厚生労働省「公正な採用選考の基本」 | 本籍、出生地、家族構成、思想・信条等の収集禁止 | AIがSNS分析等でこれらの情報を間接的に取得・活用するリスク |
特に重要なのは、厚生労働省が定める「公正な採用選考の基本」です。これは法律ではなく行政指導の枠組みですが、「応募者の基本的人権を尊重すること」「応募者の適性・能力に基づいて行うこと」を原則として掲げており、本籍・出生地、家族構成、思想・信条、支持政党などを採用選考で収集・利用することを禁じています。AIが候補者のSNS投稿を分析して思想信条を推定するような活用は、この指針に明確に抵触します。
リスク軸②:個人情報保護法——候補者データの取扱い
AI採用で収集されるデータの種類と法的分類
| データの種類 | 個人情報保護法上の分類 | 取得・利用上の注意点 |
|---|---|---|
| 氏名、連絡先、学歴、職歴 | 個人情報 | 利用目的の特定・通知が必要 |
| 顔画像(AI面接の録画) | 個人識別符号(顔認証に利用する場合) | 取得時に本人の同意が必要 |
| 音声データ | 個人情報(個人を特定できる場合) | 利用目的の特定・通知が必要 |
| 性格特性・認知能力のスコア | 個人情報(個人と紐づく場合) | プロファイリングに該当する可能性 |
| 人種、信条、病歴、障害 | 要配慮個人情報 | 取得にはあらかじめ本人の同意が必要 |
| AIが推定した性格傾向・適性スコア | 個人情報(推定情報として) | 候補者本人への開示請求に対応する必要がある |
AI採用における個人情報保護法の重要ポイント
ポイント1:利用目的の特定と通知
AIを使って候補者を評価することを、利用目的として明確に特定し、候補者に通知する必要があります。「採用選考に利用します」だけでは不十分で、「AIによる自動的な分析・評価を含みます」と具体的に記載すべきです。
ポイント2:要配慮個人情報の取扱い
AI面接で取得した録画データから、AIが障害の有無や人種、病歴を推定する可能性がある場合、要配慮個人情報の取得に該当する可能性があります。要配慮個人情報の取得には、あらかじめ本人の同意が必要です。
ポイント3:開示請求への対応
候補者には、自分の個人情報がどのように利用されたかを知る権利があります。AIが算出したスコアや評価結果について開示請求を受けた場合に対応できる体制が必要です。
ポイント4:第三者提供の制限
採用AIベンダーにデータを提供する場合、委託先への提供(個人情報保護法第27条第5項第1号)として整理するか、第三者提供として本人同意を取得するかの判断が必要です。ベンダーがデータを自社のAI改善に利用する場合は、委託の範囲を超える可能性があるため、契約上の取り決めが重要です。
リスク軸③:EU AI法——採用AIは「ハイリスク」に分類される
EU AI法のリスク分類と採用AIの位置づけ
EU AI法は、AIシステムをリスクの大きさに応じて4段階に分類しています。
| リスクレベル | 規制内容 | 採用AI関連の該当例 |
|---|---|---|
| 禁止(許容されないリスク) | 利用そのものが禁止 | 採用候補者の感情認識AI(職場における感情認識は禁止対象) |
| ハイリスク | 厳格な要件と義務(リスク管理、データガバナンス、透明性、人間の監視等) | 採用・選考のための候補者スクリーニング、面接評価、適性検査のAI |
| 限定的リスク | 透明性義務のみ | チャットボットによる候補者からの問い合わせ対応(AIであることの開示義務) |
| 最小リスク | 新たな義務なし | 求人票の文章校正AI |
EU AI法の付属書IIIは、ハイリスクAIシステムのユースケースを列挙しており、その中に「雇用、労働者管理および自営業へのアクセス」が明確に含まれています。具体的には、候補者の募集・選考における広告ターゲティング、応募書類のフィルタリング・評価、面接・テストの評価がハイリスクに分類されます。
また、2025年2月から適用されている禁止AIの規定では、職場における感情認識AIが禁止対象に含まれています。AI面接ツールが候補者の表情から感情を推定して評価に利用するような仕組みは、この禁止規定に抵触する可能性があります。
ハイリスクAIシステムの提供者・導入者の義務
提供者(AIツールベンダー)の義務:リスク管理システムの構築・運用、学習データの品質管理(バイアス検知・軽減を含む)、技術文書の作成・維持、ログの自動記録、透明性の確保(利用者への十分な情報提供)、人間による監視が可能な設計、精度・堅牢性・セキュリティの確保、EU適合性評価手続きの実施。
導入者(AIツールを利用する企業)の義務:提供者の指示に従った利用、人間による監視体制の構築、入力データの関連性の確認、AIシステムの利用に関する従業員への通知、影響を受ける自然人への情報提供。
「うちはEU域外だから関係ない」は通用しない
EU AI法には域外適用の規定があります。日本企業であっても、以下のケースではEU AI法の適用対象になります。
EU域内の子会社・支社で採用AIを利用する場合。EU域内の候補者を対象に採用AIを利用する場合。EU域内の企業にAI採用ツールを提供する場合。EU域内に拠点を持つ企業のグローバル採用プロセスにAIを組み込んでいる場合。
グローバル展開している日本企業や、EU圏に拠点・顧客を持つ企業は、2026年8月の本格適用に備えた対応が急務です。
制裁金の規模
| 違反の種類 | 制裁金の上限 |
|---|---|
| 禁止AIの規定違反 | 3,500万ユーロまたは全世界年間売上高の7%の高い方 |
| ハイリスクAIの要件違反 | 1,500万ユーロまたは全世界年間売上高の3%の高い方 |
| その他の義務違反 | 750万ユーロまたは全世界年間売上高の1%の高い方 |
リスク軸④:米国の規制動向——訴訟リスクの最前線
ニューヨーク市Local Law 144(2023年施行)
ニューヨーク市は、採用AIに対する世界初の具体的な法規制を導入しました。自動化された雇用決定ツール(AEDT)を使用する場合、使用開始前1年以内に性別・人種に基づくバイアス監査を受け、その結果をウェブサイトで公表しなければなりません。また、候補者にAI利用の事実を通知する義務もあります。
イリノイ州HB3773(2026年1月施行)
雇用主が採用・昇進・解雇等にAIを使用する場合、従業員への通知義務が課されます。また、AIの使用が差別的行為につながった場合は違法となります。
コロラド州AI差別禁止法(2026年2月施行予定)
ハイリスクAIシステムの開発者と導入者に対し、アルゴリズムによる差別が行われないよう合理的な配慮を義務づけます。
これらの米国の規制は、日本企業に直接適用されるケースは限定的ですが、米国で事業を展開する日本企業や、米国のAI採用ツールを導入する企業にとっては無視できません。
実務チェックリスト——AI採用ツールの導入・運用で確認すべき15項目
企業の人事部門・法務部門が、AI採用ツールの導入前・運用中に確認すべき項目を整理します。
【導入前】ベンダー選定・契約時のチェック
□ 1. AIの評価基準と判断ロジックの説明を受けたか
ベンダーから、AIがどのような要素を評価し、どのようにスコアリングしているかの説明を受け、ブラックボックスでないことを確認してください。
□ 2. バイアス監査の実施状況を確認したか
ベンダーがバイアス検知・軽減のためにどのような取り組みを行っているか(保護属性ごとの合格率の差異分析、定期的な監査の実施等)を確認してください。
□ 3. 個人情報の取扱いに関する契約条件を確認したか
データの保存場所、保存期間、第三者提供の有無、ベンダーによるデータのAI改善利用の有無を確認し、委託契約に反映してください。
□ 4. 候補者への通知・同意取得の仕組みを確認したか
AIを使った選考を行うことについて、候補者に通知し、必要に応じて同意を取得する仕組みが整備されているか確認してください。
□ 5. EU AI法への対応状況を確認したか(EU展開企業の場合)
ベンダーがEU AI法のハイリスクAI要件(リスク管理、データガバナンス、透明性、人間の監視等)に対応しているか確認してください。
【運用中】継続的なリスク管理のチェック
□ 6. 人間による最終判断を確保しているか
AIの評価結果を「参考情報」として扱い、最終的な採用判断は人間が行う体制を維持してください。AIの判定をそのまま合否に直結させることは避けてください。
□ 7. AIが不合格と判断したケースを人間がレビューしているか
ソフトバンクの事例のように、AIが不合格とした候補者を人事担当者が再チェックする仕組みは、バイアス対策として有効です。
□ 8. 保護属性ごとの通過率を定期的に分析しているか
性別、年齢層、障害の有無などの属性ごとに選考通過率を分析し、統計的に有意な差異がないか確認してください。差異がある場合は原因を調査し、是正措置を講じてください。
□ 9. 候補者からのフィードバック・異議申立て窓口を設けているか
AI選考の結果に疑問を持つ候補者が問い合わせできる窓口を設置し、必要に応じて人間による再評価を行う体制を整えてください。
□ 10. 厚生労働省「公正な採用選考の基本」に沿った運用をしているか
AIが直接・間接的に、本籍、出生地、家族構成、思想信条、支持政党などの情報を収集・利用していないか確認してください。
【データ管理】個人情報保護のチェック
□ 11. 利用目的の特定・通知は適切か
プライバシーポリシーや候補者向け通知文に、AIによる分析・評価が含まれることを明記してください。
□ 12. 不採用候補者のデータ保存期間は適切か
不採用となった候補者のデータを、合理的な期間を超えて保存していないか確認してください。一般的には、選考終了後6か月〜1年程度が目安です。
□ 13. AI面接の録画データの取扱いは適切か
録画データは個人情報(場合によっては個人識別符号)に該当します。保存期間、アクセス権限、暗号化の有無を確認してください。
□ 14. 候補者からの開示請求に対応できるか
AIによる評価結果の開示請求を受けた場合に、対応できる体制・手順を整備してください。
□ 15. 法令・ガイドラインの改正を定期的に確認しているか
AI採用に関する規制は世界中で急速に整備されています。EU AI法の適用開始、米国各州の新法施行、日本国内のガイドライン改定を継続的にウォッチしてください。
AI採用の「正しい使い方」——リスクを管理しながら活用する
推奨される活用パターン
パターン1:AIは「下読み」、人間が「判断」
AIを書類選考の一次スクリーニングに使い、合格候補のリストアップまでをAIに任せつつ、AIが不合格と判定したケースを人間が再レビューする二重チェック体制が最もバランスの良い運用です。
パターン2:AIは「気づき」の提供者
AIを候補者のランク付けではなく、「見落としがちなポイントの提示」「評価の一貫性チェック」に使うアプローチです。面接官の評価にバイアスがないかをAIがチェックする「バイアスチェッカー」としての活用は、むしろ公平性を向上させる可能性があります。
パターン3:採用の「入口」ではなく「裏方」で活用
候補者の直接的な評価ではなく、面接の日程調整、候補者からの問い合わせ対応、採用レポートの自動生成など、バックオフィス業務の効率化にAIを活用する方法は、法的リスクを最小化しながらAIの恩恵を受けられます。
避けるべき活用パターン
AIの判定結果をそのまま合否に直結させること。候補者の表情・声のトーン・話し方を感情認識AIで評価すること(EU AI法で禁止対象の可能性)。候補者のSNS投稿をAIで分析して思想信条を推定すること。AIの評価基準を候補者に一切開示しないこと。バイアス監査を実施せずにAI選考を運用すること。
よくある質問(Q&A)
Q1. AIが選考に関与していることを候補者に伝える義務はある?
日本の現行法では、採用選考にAIを使用していることを候補者に通知する法的義務は明文化されていません。しかし、個人情報保護法の利用目的の特定・通知義務の観点から、AIを使ったプロファイリングが行われることは通知すべきです。EU AI法ではハイリスクAIの導入者に情報提供義務があり、米国のニューヨーク市やイリノイ州でも通知義務が法制化されています。グローバルな潮流を踏まえれば、日本企業も通知を行うことが実務上推奨されます。
Q2. AI採用ツールで差別的な結果が出た場合、責任は誰が負う?
原則として、採用判断の最終責任は雇用主(企業)にあります。「AIベンダーが作ったツールだから自社に責任はない」という主張は通用しません。EU AI法では、導入者にも独自の義務が課されており、AIツールの利用による差別的結果について導入者も責任を問われます。ベンダーとの契約において、バイアス監査の実施、免責条項、損害賠償の範囲を明確にしておくことが重要です。
Q3. 日本でAI採用を直接規制する法律は今後できる?
2026年3月時点では、AI採用に特化した法律は存在しません。しかし、2024年4月に公表された「AI事業者ガイドライン」はAIのリスク管理に関する包括的な指針を示しており、採用領域にも適用可能です。また、総務省が2026年から生成AIの信頼性・安全性を評価するAI基盤システムの開発を開始するなど、規制の基盤整備は進んでいます。EUや米国の動きを受けて、日本でも法整備が加速する可能性は高いと見るべきでしょう。
Q4. 中小企業でもAI採用のバイアス対策は必要?
必要です。企業規模に関わらず、個人情報保護法、男女雇用機会均等法、障害者雇用促進法などは適用されます。中小企業の場合、外部のAI採用ツールを利用するケースが多いため、ベンダーのバイアス対策の確認と、人間による最終判断の確保が最低限必要な対策です。
Q5. ChatGPTやClaudeを使って履歴書をスクリーニングするのは問題ある?
汎用的な生成AIを採用スクリーニングに利用する場合も、法的リスクは専用ツールと同等またはそれ以上です。汎用AIはバイアス監査が行われておらず、出力のバイアスを検証する仕組みがありません。また、候補者の個人情報を外部のAIサービスに入力すること自体が、個人情報保護法上の問題を生じさせます。利用する場合は、匿名化の徹底、利用規約の確認(データが学習に使用されない設定の利用)、バイアスの手動チェックが不可欠です。
まとめ——AI採用は「法務と人事の共同プロジェクト」
AI×採用の法的リスク管理で最も大切なことを3つにまとめます。
1. 「AIだから公平」は幻想。 AIは過去のデータからバイアスを学習し、増幅します。バイアス監査なしのAI採用は、むしろ人間の判断よりも差別的な結果を生む可能性があります。
2. 最終判断は必ず人間が行う。 AIはあくまで「選考を支援するツール」であり、合否を決定するのは人間の責任です。EU AI法でも「人間による監視」が高リスクAIの必須要件として定められています。
3. 2026年8月のEU AI法本格適用は「対岸の火事」ではない。 域外適用の規定により、EU圏に拠点・顧客を持つ日本企業も適用対象になります。制裁金の規模(全世界年間売上高の最大3%)を考えれば、今から準備を始めるべきです。
AI採用は、人事部門だけで判断できるテーマではありません。法務部門、情報セキュリティ部門、経営層を巻き込んだ「全社的なAIガバナンスの一環」として取り組んでください。
関連記事:
参考リンク
- 厚生労働省「公正な採用選考の基本」
- 個人情報保護委員会「個人情報保護法」
- EU AI Act 公式テキスト(英語)
- 総務省・経済産業省「AI事業者ガイドライン」
- 米国EEOC「Artificial Intelligence and Algorithmic Fairness」
免責事項: 本記事は2026年3月時点の公開情報に基づく情報提供であり、法的アドバイスではありません。AI採用に関する具体的な法的判断については、弁護士・社会保険労務士等の専門家にご相談ください。法令・ガイドラインの解釈や適用は個別の事情により異なります。EU AI法、米国各州法、日本の個人情報保護法は改正・新設が相次いでいるため、最新情報は各公式ソースで確認してください。

コメント