AIの社会的影響と規制の理解

8-4リスクベースアプローチとリスク分類

EUのAI法は、AIシステムのリスクに基づいて規制を適用する「リスクベースアプローチ」を採用しています。このアプローチでは、AIシステムを以下の4つのリスクレベルに分類しています:
このリスクベースの分類により、AIシステムのリスクレベルに応じて適切な規制を適用し、イノベーションを阻害せずに安全性を確保することを目指しています。企業はこの分類に基づいて自社のAIシステムを評価し、必要な対応を取ることが求められます。

リスクレベル 説明 具体例 規制内容
容認できないリスク 基本的人権や安全に明らかな脅威をもたらすシステム。 社会的スコアリング、人間の行動を操作するAIなど。 禁止
高リスク 健康、安全、基本的権利に重大な影響を与える可能性のあるシステム。 医療機器、交通、教育、雇用管理などに使用されるAI。 厳格な要件を満たし、適合性評価を受ける必要があります。
限定的リスク 特定の透明性要件が課されるシステム。 チャットボット、感情認識システムなど。 ユーザーにAIとの対話を知らせる義務があります。
最小/無リスク 自由に使用できるシステム。 スパムフィルター、ビデオゲームのAIなど。 自主的な行動規範の策定が推奨されます。

 

01 容認できないリスク

  • 社会的スコアリングや人間の行動を操作するAIなど、基本的人権や安全に明らかな脅威をもたらすシステムは禁止されます。

02 高リスク

  • 健康、安全、基本的権利に重大な影響を与える可能性のあるシステム。
  • 医療機器、交通、教育、雇用管理などに使用されるAI。
  • 厳格な要件を満たし、適合性評価を受ける必要があります。

03 限定的リスク

  • チャットボットや感情認識システムなど、特定の透明性要件が課されるシステム。
  • ユーザーにAIとの対話を知らせるなどの義務があります。

04 最小/無リスク

  • スパムフィルターやビデオゲームのAIなど。
  • 自由に使用でき、自主的な行動規範の策定が推奨されます。