• News
  • 共通

AIを開発・社会実装するための倫理原則、日立が明文化

DIGITAL X 編集部
2021年3月11日

AI(人工知能)技術を開発・社会実装する際の拠り所となる「AI倫理原則」を日立製作所が策定した。AIの計画・社会実装・維持管理における行動規準と、安全性・公平性・プライバシー保護などの観点から7つの実践項目を明文化した。2021年2月22日に発表した。

 日立製作所が策定した「AI倫理原則」は、同社が推進する社会イノベーション事業において、AI(人工知能)技術を開発したり社会実装したりする際に内在する倫理的リスクを抑制するために明文化したもの。

 AI技術の利用が広がり社会との関係性が強まる中で、AI技術に潜むリスクも高まっている。OT(Operational Technology:制御・運用技術)領域では、社会インフラに直結するだけに、AIの異常動作や外部からの悪意を持った行為により、社会全体や人命に関わる重大な影響を及ぼすリスクがあるとする。IT領域では、AIの開発を誤れば差別や偏見、格差を助長する怖れがあるとしている。

 日立はAI倫理原則に則り、AIに内在するリスク評価や対策を実践していく。具体的には、AI倫理原則を基にしたチェックリストを活用することで、AIの利活用目的を確認したり、社会実装へのリスクを評価し対応策を立案したりする。

 日立のAI倫理原則は「行動規準」と「実践項目」からなっている。行動規準は、表1のように(1)計画、(2)社会実装、(3)維持管理の3フェーズに分かれている。

表1:日立製作所の「AI倫理原則」における3つの行動規準
フェーズ行動規準重要視する点目標
計画持続可能な社会の実現のために、AIの開発と利活用を計画するサービスや製品におけるAI利活用の目的の適切さ社会の多様な課題を解決し、快適で強靭な持続可能社会の実現や、世界中の人々のQoL(生活の質)向上のためにAIの開発と利活用を計画する
社会実装人間中心の視点でAIを社会実装するAIの判断結果が、個人を尊重し、社会の利益に資するよう、責任をもってAIを社会実装し、AIと人間との共生を可能にすること自由、公平、公正の理念にのっとり、人間中心の視点でAIを社会実装するとともに、AIが想定通りに機能するよう検証に努める
維持管理AIの提供価値が長期間にわたり持続するよう、AIを維持管理するAIの社会実装後にも、AIが長期かつ安定的に価値を提供し続けることAIの提供価値が社会や環境の変化に応じ継続的に受け入れられるよう維持管理に努める

 実践項目は、安全性や公平性、プライバシー保護などの観点で定めた7つの項目からなる(表2)。

表2:日立製作所の「AI倫理原則」における7つの実践項目
実践項目内容
安全重視(1)AIや、AIを活用したシステムなどが想定通りの動作をするよう品質を検証し、利用者や関係者の生命や健康をはじめとする人権、財産、名誉、信頼、信用を守ることに努める
(2)地球環境の破壊あるいは悪化を防止し、人々に安全な暮らしを提供するAIの実現と運用に努める
プライバシー保護AIの学習・評価・運用に利用する入力データや、AIが出力するデータに関して、個人情報を適切に扱い、プライバシーを含む権利を保護するよう、AIの実現と運用に努める
公平性の実現AIの判断結果が、多様なステークホルダーの利益に資するとともに、人種や性別、国籍などによる差別や偏見を発生させたり助長させたりすることがないよう、AIの実現と運用に努める
適正な開発と利活用(1)AIが設計された用途や動作条件から逸脱した使い方をされないよう、AIの具体的な利活用シーン(ユースケース)におけるリスクポテンシャルを踏まえた開発を行い、AIの適正な利活用に努める
(2)利用者や運用者などに対し、利用方針や利用条件などを示すことでAIの適正な運用に努める
(3)AIが利用される動作環境の変化、AIやその判断結果に対する人々の意識や社会状況の変化などを随時確認し、AIの適切な維持管理に努める
透明性や説明責任の重視AIの判断結果の根拠などを検証し説明できるよう、AIの透明性確保に努めるとともに、AIやその判断結果に関して用途や状況に応じ、説明責任を果たすよう努める
セキュリティ重視情報漏洩、改ざん、システムの破壊、サービスの妨害などを防止するよう、システムや運用レベルでの対策も含め、セキュリティを重視したAIの実現と運用に努める
法令遵守利用される国や地域の法令を遵守しつつAIを実現・運用する

 今後は倫理原則を基に、「人間中心の視点でAIを開発・社会実装することで、人間の尊厳が守られた安全かつ快適でレジリエンス(回復力)のある社会の実現と、人々のQOL(Quality of Life:生活の質)向上に貢献していく」としている。