EU AI法のハイリスクAIとは?具体例と事業者の義務を解説

IT・情報セキュリティ
北山 昇弁護士 森・濱田松本法律事務所外国法共同事業 輪千 浩平弁護士 森・濱田松本法律事務所外国法共同事業

 当社のプロダクトが、EU AI法の規制する「ハイリスクAIシステム」に該当するかを検討しています。EU AI法がハイリスクAIシステムの該当性についてどのように規定しているか、また、該当する場合の規制内容について教えてください。

 EU AI法は、人々の健康、安全、基本的権利に重大な影響をもたらす可能性が高い一定のAIシステムを「ハイリスクAIシステム」に分類し、関連する事業者に、システム要件の遵守や適合性評価手続といった広範な義務を課しています。

 ハイリスクAIシステムに該当するものは、①自動車やその部品等、EU法令上、一定の製品安全に関する規制の対象となっている製品等に関して、安全コンポーネントとして使用されるAIシステムと、②バイオメトリクスや重要インフラなどの特定のユースケースに該当するハイリスクAIという2つの類型に分かれます。
 事業者は、自社のプロダクトやサービスがこれら2類型に該当するか否か、また自社が提供者、ディプロイヤー、輸入業者、販売業者等のいずれに該当するのかを判断し、適用される義務を特定する必要があります。

解説

目次

  1. EU AI法におけるAIシステムの位置付け
  2. AIシステムの4つのカテゴリ
  3. ハイリスクAIシステムとは
    1. EU法令で規制された製品の安全コンポーネントたるハイリスクAI
    2. 特定のユースケースに該当するハイリスクAI
  4. ハイリスクAIのシステム要件
  5. ハイリスクAIシステムに関して事業者に求められる対応
    1. 提供者に課せられる主な義務
    2. ディプロイヤーに課せられる主な義務

EU AI法におけるAIシステムの位置付け

 EUにおいてAIモデル・AIシステムを規制する「European Artificial Intelligence Act」(以下「AI法」といいます)が、2024年8月1日に発効し、一部を除くほぼ全てのルールは2026年8月2日までに適用が開始されます。同法が適用される対象は広く、EUに拠点がない日本企業であっても適用される可能性があります。なお、AI法の条文のファイナル版は、EUのウェブサイトで確認できます。

 EU AI法は、「AIシステム」と「汎用目的AI(General Purpose AI)モデル」を規制対象としています。前者は4つのリスクカテゴリに分類されており、中でも「ハイリスクAIシステム」は記述が詳細で、これに該当すると判断されたAIシステムの提供者およびディプロイヤーには、より厳格な義務が課されます。

 AI法の詳しい内容は、下記の関連記事をご参照ください。

AIシステムの4つのカテゴリ

 AI法は、リスクベースアプローチの観点から、「AIシステム」に関するリスクを4つのカテゴリに分類し、リスクの程度に応じた義務を課しています。

リスクベースアプローチに基づくAIシステムの4つのカテゴリ

リスクベースアプローチに基づくAIシステムの4つのカテゴリ

ハイリスクAIシステムとは

 AI法は、人々の健康、安全、基本的権利に重大な影響をもたらす可能性が高い一定のAIシステムを「ハイリスクAIシステム」に分類し、関連する事業者に広範な義務を課しています
 ハイリスクAIシステムには、以下の2つの類型があります。

  • 類型①:EU整合法令(Union harmonisation legislation)で規制された製品の安全コンポーネントたるハイリスクAI(付属書Ⅰ関係)

  • 類型②:特定のユースケースに該当するハイリスクAI(付属書Ⅲ関係)

EU法令で規制された製品の安全コンポーネントたるハイリスクAI

 以下の(a)および(b)の要件をいずれも満たしたAIシステムは、上述の類型①に該当し、ハイリスクAIシステムとみなされます(6条1項)。たとえば、自動車やその部品等、EU法令上、一定の製品安全に関する規制の対象となっている製品等に関して、AIシステムが安全コンポーネントとして使用される場合などがこれに該当します。
 この類型①は、対象製品に該当するセクターの事業者が対象となります。

(a)AIシステムが、付属書Iに掲げられたEUの整合法令によって規制される製品の安全コンポーネントとして使用されることを目的としているか、またはAIシステム自体が付属書Iに掲げられたEUの調和立法によって規制される製品であること。

(b)AIシステムが、(a)に規定される安全コンポーネントである製品、またはAIシステム自体が製品である場合、付属書Iに掲げられたEUの調和立法によって、その製品が市場に投入されるか、または使用される前に、第三者による適合性評価を受けることが必要であること。

 付属書Iに記載されているEU整合法令は、以下に関するものです。

  1. 機械
  2. 玩具の安全
  3. レクリエーションクラフトおよび個人用水上クラフト
  4. エレベーターおよびその安全コンポーネント
  5. 潜在的に爆発性のある環境で使用する機器・保護システム
  6. 無線機器
  7. 圧力機器
  8. ケーブルウェイ設備
  9. 個人用保護具
  10. ガス燃焼機器規則
  11. 医療機器
  12. 体外診断用医療機器
  13. 民間航空の安全
  14. 二輪・三輪・四輪車両
  15. 農業・森林業用車両
  16. 海上機器
  17. 鉄道システムの相互運用性
  18. 自動車および部品等
  19. 自動車の型式承認
  20. 民間航空の安全

特定のユースケースに該当するハイリスクAI

 以下の付属書IIIに規定されるAIシステムは、類型②に該当し、ハイリスクAIシステムとみなされます(6条2項)。類型①と異なり、類型②は、特定のユースケースで使用されるAIシステムが対象であり、類型①に該当するような特定のセクターの事業者であるか否かにかかわらず、より広い事業者に適用される可能性があります。すなわち、たとえば、類型①に典型的に該当するような機械や自動車の部品メーカーなどでなくても、自社の採用や人事評価にAIシステムを使用する場合、バイオメトリクスを利用したAIシステムを利用する場合などがあれば、適用対象となる可能性があります。

No. 分野 ハイリスクAIシステムに該当するユースケース
1. バイオメトリクス
  • 遠隔生体識別システム(本人確認のみを目的とするものを除く)
  • 生体分類システム(感情認識システムを含む)
  • 感情認識システム
2. 重要インフラ
  • 重要デジタルインフラ、道路交通、水道、ガス、暖房、電気の供給などの管理と運用における安全部品として使用されるAIシステム
3. 教育と職業訓練
  • 教育機関や職業訓練機関への入学や進学、割当てを決定するAIシステム
  • 学習成果を評価するAIシステム(学習プロセスの誘導にも使用される場合を含む)
  • 個人が受けるべきまたは受けられる教育レベルを評価するAIシステム
  • 試験中の学生の禁止行為を監視や検出するAIシステム
4. 雇用、労働者管理、自営業へのアクセス
  • 人材の募集や選抜に使用されるAIシステム(求人広告のターゲティング、応募書類の分析やフィルタリング、候補者の評価などを含む)
  • 労働関係の契約条件、昇進、解雇などに影響する決定をするAIシステム
  • 個人の行動や特性に基づいて業務を割り当てたり、パフォーマンスや行動を監視や評価するAIシステム
5. 不可欠な民間サービスや公共サービス、公的給付へのアクセスと享受
  • 公的な援助やサービス(医療サービスを含む)の対象となるかどうかを評価したり、付与、減額、取り消し、回収したりするAIシステム
  • 個人の信用力や信用スコアを評価するAIシステム(金融詐欺の検出を目的とするものを除く)
  • 生命保険や健康保険のリスク評価や料金設定に使用されるAIシステム
  • 緊急電話の評価や分類、救急対応サービス(警察、消防、救急医療など)の派遣や優先順位の決定、救急医療の患者トリアージに使用されるAIシステム
6. 法執行
  • 犯罪被害者になるリスクを評価するAIシステム
  • ポリグラフや類似のツールとして使用されるAIシステム
  • 証拠の信頼性を評価するAIシステム
  • 犯罪者や再犯者のリスクや性格特性を評価するAIシステム
  • 犯罪の発見、捜査、起訴において個人のプロファイリングを行うAIシステム
7. 移民、難民、国境管理
  • ポリグラフや類似のツールとして使用されるAIシステム
  • 入国や滞在に関するリスク(安全、不正、健康など)を評価するAIシステム
  • 難民やビザや在留許可の申請や不服申し立てに関する審査や証拠の信頼性を補助するAIシステム
  • 移民や難民や国境管理の文脈で個人の検出、認識、識別を行うAIシステム(旅券の検証を除く)
8. 司法と民主的プロセス
  • 事実や法律の調査や解釈や適用を補助するAIシステム・選挙や国民投票の結果や投票行動に影響を与えるAIシステム(管理や組織や最適化などの目的で使用されるものを除く)

 ただし、形式的には付属書IIIに規定されるAIシステムであっても、実質的に自然人の健康、安全、または基本的権利に対して重大な危害のリスクをもたらさない場合は、ハイリスクAIシステムとはみなされません。具体的には、以下の①〜④のいずれかの要件を満たす必要があります(6条3項)。
 この例外規定は、ハイリスクAIシステムを市場投入等することに伴う義務やコストを回避できるため、実務上重要な役割を果たすことが期待できます。ただし、提供者は、附属書IIIに該当する自社のAIシステムが例外に該当しハイリスクではないと考える場合、当該AIシステムが市場に投入される前またはサービス提供開始前に、その評価を文書化しなければならず、当該AIシステムをEUデータベース(71条参照)に登録する等の義務が生じます(49条2項、6条4項)。

  1. AIシステムが、限定的な手続的なタスクを実行することを目的としていること。(例:構造化データを構造化データに変換するシステム、文書の重複を検出するシステム等)
  2. AIシステムが、人間が既に完了した活動の結果を改善することを目的としていること。(例:すでに作成された文書で使用される専門的な論調を改善するシステム等)
  3. AIシステムが、意思決定のパターンやそれからの逸脱を検出することを目的としており、人間が既に完了した評価を置き換えたり影響を与えたりすることを意図していないこと、または適切な人間によるレビューがなされること。(例:教師が適用した評定を、その教師の既存の評定パターンと比較して、矛盾や異常をチェックするシステム等)
  4. AIシステムが、付属書IIIに掲げられたユースケースの目的に関連する評価に先立つ準備的なタスクを実行することを目的としていること。(例:文書を翻訳するシステム等)

 ただし、個人のプロファイリングを含むAIシステムは、常にハイリスクとみなされます(6条3項)。

ハイリスクAIのシステム要件

 AI法は、ハイリスクAIが、Section 2(8条から15条)が定める以下のシステム要件(加えて、別途該当する場合は製品の整合規格要件)を満たすことを求めています。このハイリスクAIのシステム要件の遵守の確保は、基本的に提供者に義務付けられています(16条 (a) )。

要件 詳細
リスク管理システム(9条) ハイリスクAIシステムには、ライフサイクル全体を通じて継続的に計画・実行されるリスク管理システムが必要です。リスクの特定、評価、管理措置の採用が含まれます。
データとデータガバナンス(10条) トレーニング、検証、テストデータセットは、適切なデータガバナンスと管理慣行に従う必要があります。データの収集、準備、バイアスの検出と修正が含まれます。
技術文書(11条) ハイリスクAIシステムの技術文書は、市場に出る前に作成され、最新の状態に保たれる必要があります。文書は、システムが要件を満たしていることを示し、評価のための情報を提供します。
記録保持(12条) ハイリスクAIシステムは、システムのライフタイム中にイベントの自動記録を技術的に可能にする必要があります。
透明性と情報提供(13条) ハイリスクAIシステムは、その運用が十分に透明であるように設計・開発される必要があります。使用説明書には、システムの特性、性能、リスク、監視措置などの情報が含まれます。
人間の監視(14条) ハイリスクAIシステムは、使用中に自然人によって効果的に監視されるように設計・開発される必要があります。監視措置は、リスク、システムの自律性、使用状況に応じて調整されます。
精度・堅牢性・サイバーセキュリティ(15条) ハイリスクAIシステムは、適切な精度、堅牢性、サイバーセキュリティを達成し、ライフサイクル全体で一貫して性能を発揮するように設計・開発される必要があります。

ハイリスクAIシステムに関して事業者に求められる対応

 AI法は、ハイリスクAIシステムの提供者およびディプロイヤーに対してそれぞれ義務を課しています。

提供者
(provider)
AIシステムまたはGPAIモデルを自ら開発しもしくは開発をさせ、それを市場に投入するかもしくは自らの名前・商標の下でサービスを提供する自然人、法人、公的機関、機関その他の団体を指し、有償か無償かを問わない。
ディプロイヤー
(deployer)
自らの権限でAIシステムを利用する自然人または法人、公的機関、機関その他の団体を指す。
※個人的な非業務活動の過程でAIシステムを利用する場合は除外される。

 以下にハイリスクAIシステムの提供者およびディプロイヤーにおける主な義務を列挙します。

提供者に課せられる主な義務

 AI法は、ハイリスクAIシステムの提供者に対して、以下の義務を課しています(16条)。

16条に規定されている提供者の義務 関連条文
 (a)システム要件の遵守 ハイリスクAIシステムがシステム要件に適合していることを確保する。 8条から15条
 (b)表示義務 ハイリスクAIシステム、またはそれが不可能な場合はその包装や付属文書に、提供者の名前、登録商号または登録商標、連絡先住所を表示する。
 (c)品質管理システム 品質管理システムを導入する。 17条
 (d)文書の保持 技術文書、品質マネジメントシステム関連文書、EU適合宣言書等を保持する。 18条
 (e)ログの保持 提供者の管理下にあるハイリスクAIシステムによって自動生成されたログを保持する。 19条
 (f)適合性評価 ハイリスクAIシステムを市場投入する前またはサービスの開始前に、適合性評価手続を受ける。 43条
 (g)EU適合宣言 EU適合宣言を作成する。 47条
 (h)CEマーキング AI法に適合していることを示すために、ハイリスクAIシステム、またはそれが不可能な場合はその包装や付属文書にCEマーキング [^2] を付ける。 48条
 (i)登録義務 市場投入する前またはサービス開始前のEUデータベースへの登録義務を遵守する。 49条1項
 (j)是正措置 ハイリスクAIシステムの要件を遵守していない場合等において、必要な是正措置を講じ、情報を提供する。 20条
 (k)適合性の証明 国の権限ある当局の合理的な要求に応じて、ハイリスクAIシステムがシステム要件に適合していることを証明する。 Section 2
 (l)アクセシビリティ要件 製品・サービス・公共機関のウェブサイト・モバイルアプリについて、ハイリスクAIシステムがアクセシビリティ要件に適合していることを保証する。 指令(EU) 2016/2102
および(EU) 2019/882

 このほかにも、ハイリスクAIシステムの提供者に対して課される義務はさまざまなものがあります。特に留意すべきものとして、「認定代理人(authorised representative)の選任」(22条1項)と、「重大なインシデントの報告義務」(26条5項)が挙げられます。

ディプロイヤーに課せられる主な義務

 AI法は、ハイリスクAIシステムのディプロイヤーに対して以下の義務を課しています(26条)。

要件 詳細
使用説明書に従った技術的・組織的措置 システムの使用説明書に従って適切な技術的および組織的措置を講じる。
人間の監視 必要な能力、訓練、権限を持つ自然人に人的監視を割り当てる。
入力データの管理 ディプロイヤーが入力データを管理する場合、そのデータが目的に対して適切であることを確認する。
システムの監視 使用説明書に基づいてシステムの運用を監視し、リスクがある場合は提供者や市場監視当局に通知し、使用を中止する。
ログの保持 システムが自動生成するログを少なくとも6か月間保持する。
労働者への通知 ディプロイヤーが雇用主である場合、職場でハイリスクAIシステムを使用する前に労働者代表および影響を受ける労働者に通知する。
公的機関の登録義務 公的機関のディプロイヤーは、EUデータベースに登録されていないシステムを使用しないようにし、提供者または販売業者に通知する。
データ保護影響評価 データ保護影響評価を実施するために必要な情報を使用する。
司法当局の承認 犯罪捜査のためにハイリスクAIシステムを使用する場合、事前または48時間以内に司法当局の承認を得る。
自然人への通知 ハイリスクAIシステムが自然人に関する決定を行う場合、その使用について自然人に通知する。
当局との協力 関連当局がこの規則を実施するために取る行動に協力する。

 このほかにも、ハイリスクAIシステムのディプロイヤーに対して課される義務はさまざまなものがあります。

 日本企業におけるAI法対応の具体的なステップや実務ポイントの詳細は、以下の関連記事を参照ください。

無料会員登録で
リサーチ業務を効率化

1分で登録完了

無料で会員登録する