• News
  • 共通

AI利用に伴うリスクの管理サービス、KPMGコンサルティングが開始

DIGITAL X 編集部
2019年6月4日

AI(人工知能)を企業が利用することに伴うリスクの管理サービスをKPMGコンサルティングが開始した。AIを安全に導入・利用できるよう、公平性や倫理性、説明責任、透明性などの原則に沿ってリスク対策・管理を実施する。2019年5月30日に発表した。

 KPMGコンサルティングの「AIリスクマネジメントサービス」は、企業がAI(人工知能)を導入・運用することに伴うリスクの把握と管理を支援するサービス。企業ニーズやAIの導入状況を踏まえた効率的なAIガバナンスとリスクマネジメントの設計・構築と、リスク管理を可能にする。

 たとえば、(1)AIのブラックボックス化により分析や判断結果の根拠が不透明になる、(2)バグが内在したまま動作する、(3)悪意あるデータによる学習の結果、不適切な回答が発生するといったリスクについて、公平性や倫理性、説明責任、透明性などの原則に沿ってリスク対策・管理を実施する。

 そのために、AIリスク管理フレームワーク「AI In Control」と、リスクレベルを定義するAIリスクコントロールマトリクス「AI RCM」を開発した。

 AI In Controlは、AI導入における計画から構築、実行までをカバーするフレームワーク(図1)。AI導入の進め方や、AIに求められる要素、AI利用時に考慮すべき観点などを整理する。

図1:AIリスク管理フレームワーク「AI In Control」

 AI RCMは、AIのリスクコントロール領域に対し、リスクレベルの定義や、リスクに対応したコントロールを整理したもの(表1)。AIの利用リスクを管理するための網羅的で総合的な手法として、安全な開発・利用とコンプライアンスへの指針を提供する。

表1:AIリスクコントロールマトリクス「AI RCM」の一部
カテゴリ概要
戦略組織の戦略と合致したAIの投資、開発、または適用に対する戦略が必要
未整備の場合、AIの不適切な使用に関するリスク顕在化の可能性
ガバナンス適切なリスク管理、法律、規制及び組織のコンプライアンス要件への準拠が必要
AI機能に対する不明瞭または過度な期待及び過信は、効果のない結果をもたらす可能性
データ・モデルガバナンス母集団が不完全または不正確なデータをAIが利用すると誤った判断につながる
アルゴリズムに関するガバナンスが不十分な場合、低品質なアウトプットとなる可能性
ロギングとモニタリングAI運用に関して監査またはモニタリング要件を満たさない場合、インシデントに対する適時な分析や対応が不十分となる可能性