• Column
  • Digital Vortex、ディスラプトされるかディスラプトするか

国家の未来を掛けたAIイノベーション戦略(後編)【第15回】

今井 俊宏(シスコシステムズ イノベーションセンター センター長)
2019年1月15日

AI(人工知能)イノベーションは、前回述べたように、世界中で必然的な流れになっている。さらに進んでいくことはあっても止まることはない。一方で、AIイノベーションで危惧される“負の側面”にも関心が高まっている。そこにも目を見張らせ、適切な準備・対処が求められる。今回は、AIの倫理やガバナンスに関する企業や各国の取り組みをみていく。

 AI(人工知能)イノベーションが国家や社会にもたらすものは、人々の生活の質の向上や、経済的な恩恵など“正の側面”だけにはとどまらない。世の中に対し、AIイノベーションがどのような影響をもたらすのかについては、倫理や哲学、ガバナンスといった視点からも十分に検討し理解する必要がある。

 たとえば、元になるデータに偏りがあれば、AIが導き出す結果は歪なものかもしれない。AIによるプロファイリングにより人々がスコア化されると階層化社会が進んでしまうかもしれないし、AIが兵器などに応用されれば軍事的な脅威が増すかもしれない。

AI普及の一環でAIの倫理的課題へ対応してきたGAFA

 民間企業がAIイノベーションを牽引する米国ではAIの普及を目指す非営利組織「Partnership on AI」が2016年9月に設立されている。Google、Facebook、Amazonが設立メンバーとして参加し、Appleも2017年1月に参加した。2018年末時点のメンバー数は80を超え、中国Baiduもメンバーに名を連ねている。

 Partnership on AIは、AI技術の啓蒙やベストプラクティスの共有と同時に、安全性や、公平性、透明性、説明責任、労働への影響、社会への影響、人との共存など、AIの倫理的課題解決にメンバー共同で取り組み、社会に貢献することを目標にしている。

 主要メンバーであるGAFA(Google、Apple 、Facebook、Amazon)は、それぞれがAIの倫理的課題へ取り組んでいる(図1)。Facebookの場合、2018年5月に開催した会社向けの自社イベント「F8開発者会議」において、自社で開発しているAIエンジンにおいて不公平な取り扱いを防止するために、倫理を専門に扱うチームを発足したと公表している。

図1:AIの倫理的課題に積極的に対応するGAFA

AIの倫理を基本的人権ととらえる欧州

 「GDPR(General Data Protection Regulation:一般データ保護法)」を擁する欧州も、AIの倫理基準をかなり重く見ている。前回指摘したAIイノベーションによる人材流出の懸念に加え、雇用や社会活動全般への影響を危惧しているからだ。

 そのため2018年6にはEC(欧州委員会)が、AIに対する政策や業界からの意見を取りまとめる委員会として「High-Level Expert Group on Artificial Intelligence(AI HLEG)」を設置。産学を代表する専門家メンバー52人を選出した。

 AI HLEGは、AIの倫理的課題に対応するための倫理ガイドライン案を策定する。そのカバー範囲は、安全性、透明性、将来の仕事、プライバシー、個人情報保護、尊厳、消費者保護、無差別等の基本的人権への影響など幅広い。倫理ガイドライン案は2018年末までに完成させ、2019年初頭に公表する予定だ。

 同時にAIに関するオープンな議論の場となるフォーラムとして「European AI Alliance」が設立されている。AI HLEGは、倫理ガイドライン案を策定する際に、European AI Alliance で議論された内容を参考にする。