AIの社会的影響と規制の理解

8-5 AIシステムのリスク分類による規制

AI法では、AIシステムのリスクに応じて4つのカテゴリーに分類し、それぞれに異なるレベルの規制を適用しています。高リスクと低リスクの区分基準は以下のように設定されています。

 

01 高リスクAIシステム

高リスクAIシステムは、以下の2つの主要カテゴリーに分類されます:

  1. 規制対象製品の安全要素として使用されるAIシステム
    • 産業機械、医療機器など、法によって第三者認証の対象となるもの
  2. 特定分野で使用されるAIシステム
    • 生体認証と分類
    • 重要インフラの管理と運用
    • 教育と職業訓練
    • 雇用、労働者管理、自営業の機会
    • 必須の民間サービス、公共サービス・利益へのアクセスや享受
    • 法のエンフォースメント
    • 移住、亡命及び国境管理
    • 司法運営と民主的プロセス
      これらの高リスクAIシステムには、厳格な要件と義務が課されます。

02 低リスクAIシステム

低リスクAIシステムは、高リスクAIシステムに該当しないものを指します。これらは「限定リスク」または「最小リスク/リスクなし」のカテゴリーに分類されます。

  1. 限定リスクAIシステム
    • 人とAIシステムが相互作用する場合、それが明らかでない時は通知する義務がある
    • 感情認識または生体認証システムが適用されている場合、人間に通知する義務がある
    • ディープフェイクに対して警告ラベル付けをする義務がある(基本的権利の行使や公共の利益に反しない限り)
  2. 最小リスク/リスクなしAIシステム
    • 必須の義務はないが、高リスクAIに対する要求事項を自主的に適用することが奨励される
      この分類により、AIシステムのリスクレベルに応じた適切な規制が適用され、イノベーションを促進しつつ、安全性と基本的権利の保護のバランスを取ることが目指されています。