• Column
  • 信頼できるAIのためのAIガバナンスの実戦的構築法

AIのリスクをどのように特定するのか(後編)【第3回】

熊谷 堅(KPMGコンサルティング 執行役員 パートナー)
2025年3月5日

(C)リスク対策評価(Evaluation)

 一般的なITシステムでは、要件定義において仕様を明らかにし、開発やテストにおいてそれを完全に充足するように構築していく。これに対しAIモデルやAIシステムでは、活用できるデータの制約、企画当初に想定した結果との相違、AIモデルを制御するためのシステム機能の追加などが徐々に形成されていくという特性がある。

 そのため、AIモデルやAIシステムでは、開発やテスト段階で改めてリスクや必要な対策が認識されることが多い。従って、できるだけ後工程でリスク情報を最新化・最終化したい。例えば、リスク対策評価をリリース前段階のクライテリア(評価基準)にするなどだ。これは、運用段階の継続的なモニタリングにも引き継がれ、利用者に対する情報開示として透明性を確保することや説明責任を全うすることにも関係する。

(D)リスクモニタリング(Monitoring)

 前段階のリスク評価やリスク対策評価において、一定の対策が講じられることになるが、リスクの全てが解消されるわけではない。例えば、AIモデル構築の訓練時と実際の本番データとのかい離、AIモデルの再学習(フィードバックループ)による出力の偏りなどから、構築当初の想定とは異なる推論結果になっていくこともある。

 一般的なITシステムでも運用段階のモニタリングは必要だが、AIモデルやAIシステムのモニタリングは、精度劣化やAIの活用意義の低下に直結してしまうだけに、より重要だと言える。具体的には、AIの精度が低下する「データドリフト」により結果が変わっていくことや、入力データとモデル出力の関係性が変わる「コンセプトドリフト」のように社会環境と合わなくなってしまうことなどが起こる。

 リスクモニタリングは運用開始後が対象のため、リスク評価とは明確に切り分けた“モニタリング”に位置付けることも十分考えられる。詳細は第5回で解説する。

国内外のAI規制法もライフサイクルを重視

 EU(欧州連合)では、AIを包括的に規制する法律「EU AI Act(EU AI規制法)」が2024年5月、世界に先駆けて成立した。EU AI規制法はリスクベースアプローチを採用し、リスクを「許容できないリスク(禁止AI)」「高いリスクを示すAI(ハイリスクAI)」「透明性義務のあるAI」などに分類し、それぞれの義務を規定している。

 例えば、ハイリスクAIシステムに対しては、そのライフサイクルにわたってリスク管理を課し、リスク評価と対策の管理を求めている(図2)。この点は上述した内容と共通する。

図2:EU AI規制法におけるハイリスクAIに対するリスク管理の内容

 一方、日本国内では、内閣府のAI戦略会議に設置されたAI制度研究会がAIに関わる法制度のあり方について検討。「中間とりまとめ(案)」を2024年12月に公表した。本稿執筆時の2025年1月時点では、意見募集段階にあるが、参考にしていただきたい。

 中間とりまとめ(案)は具体的な制度・施策の方向性として「AIライフサイクル全体を通じた透明性と適正性の確保」を挙げる。AIモデルやAIシステム構築には多くの関係者が存在し、AIモデル構築からシステムに組み込む段階と、利用者が実際に利用する段階では、AIの能力やリスク評価の結果も変化している可能性があることに触れている。

 加えて、各段階でのリスク情報を複数の関係者が共有し、透明性を高める必要があるとし、リスク評価を多段階で実施することの意義を説いている。AIモデルの開発時に認識されるリスクについて、「AIシステムへの構築を経て提供され、利用者が使用する時点でリスクを適正に認識できるようにする」という考え方だ。

 このように国内外を問わず、今後の規制対応という側面でも、これまで述べてきたリスク評価方法は、構築するAIガバナンスにおいて検討に値する実践方法だと言えよう。

 次回は、リスク評価の基礎として記載した「AIライフサイクル」に焦点を当てて解説する。

熊谷 堅(くまがい・けん)

KPMGコンサルティング 執行役員 パートナー。システム開発等に従事した後、外資系コンサルティング会社を経て、2002年KPMGビジネスアシュアランス(現KPMGコンサルティング)入社。デジタル化やデータに関わるガバナンス、サイバーセキュリティ、IT統制に関わるサービスを数多く提供。現在はKPMG各国事務所と連携し、KPMGジャパンにおけるTrusted AIサービスをリード。法規制対応を含むAIガバナンス構築プロジェクトを手掛ける。