• Column
  • 大和敏彦のデジタル未来予測

止まらぬ生成AIの進化と活用上の課題【第85回】

大和 敏彦(ITi代表取締役)
2024年10月21日

(5)役割の実現

 AIシステムに一定の役割を持たせられれば、その役割に基づいた応答を得られるし、別の役割を持ったAIシステムと連携すれば、より複雑な課題の解決が可能になる。

 例えば、米Anthropicが開発する生成AI「Claude」は高速で広範な機能を持ち、会話において役割を持たせられる。役割に関する事前情報を提供することで自然で適切なやり取りが可能になる。Anthropicは米Amazon.comと戦略提携を結んでいるほか。Googleや米Salesforceから出資を受けている。

 日本のスタートアップ企業さかなAIは、異なる能力を持つオープンソースモデルを融合することで、新たな基盤モデルを構築する方法を発見しようとしている。さかなAIには、米NVIDIAのほか、日本でも3大メガバンクを含む国内企業10社が出資している。

 例えば「AIサイエンティスト」というモデルは、人間の介入なしに論文を自律的に作成できる。同モデルは、(1)論文執筆のためのアイデアを創出し、実験をし、その結果を要約する役割のLLMと、(2)査読の役割を持つLLMからなる。後者による論文の批判やフィードバックを元に、前者のLLMが改善に取り組み、次に発展させるべきアイデアを選定する。AIシステムの役割を決め、それらが協力することで、より新しく、質の高い課題解決の可能性が高まる。

(6)分散化による展開

 AI技術を、より身近に使えるようにするためには、AIシステムの分散化が必要になる。AI技術を、いつでも、どこでも使えるようになれば、それを応用したアプリケーションが出現し、世の中の仕事や生活を変えていく。

 米Microsoftは、AI機能「Copilot」を全てのデバイスや職務に提供することをミッションに、アプリケーションへCopilot機能を組み込んだり、CPU(中央処理装置)内蔵のNPU(ニューラルネットワーク処理装置)でAI処理を実行するPCである「Copilot+PC」を投入したりしている。加えて、LLMよりサイズが小さく、より少量のデータで学習ができる「SLM(Small Language Model:小規模言語モデル)」を開発してもいる。

 米Appleも同様に、AI機能「Apple Intelligence」を同社のiPhone、iPad、Macに展開している。

AIの悪用リスクに対するAI規制も必要に

 AI技術は、継続した技術開発により、その機能を広げ、種々の課題を解決すべく進化している。では、その浸透・発展への課題は何であろうか。『生成AIのプラットフォーム化と特化型AI【第69回】』では、LLMを稼働させるサーバーの運用コストと、それに対するマネタイズの問題を指摘した。

 ChatGPTの運用には、巨大なサーバー群の運営だけで1日約70万ドルがかかる。人件費やAIモデルの学習コストとして年間最大85億ドルがかかっている。巨額の投資が必要なため、「OpenAIは2024年内にも経済的に破綻する可能性がある」との噂が流れたほどだ。

 冒頭で紹介したPwC Japanの調査結果にあるように、生成AIの活用は増えている。その中には、ChatGPTをAPI(アプリケーションプログラミングインタフェース)経由で使うビジネスも多い。これらのベースになるプラットフォームとしての生成AIのマネタイズ問題を解決する必要がある。

 もう1つの課題は生成AIの悪用だ。米Splunkの『CISOレポート』によれば「CISOが考えるAIの悪用」としては、攻撃のスピードと効率の向上(36%)、フェイク音声/画像を使ったソーシャルエンジニアリング(36%)、サプライチェーン攻撃での対象領域の拡大(31%)が上位に挙がる。

 サイバー攻撃が増加するなか、その攻撃にAI技術が使われる、あるいはフェイクの音声/画像が使用されていることは、ニュースでもよく取り上げられている。さらには、軍事ロボットの悪用や、AI技術を使った自動運転車やロボットを乗っ取っての攻撃なども考えられる。これらの悪用を防止するためには、AI規制が必要になる。

 EU(欧州連合)のAI規制は、EUにおけるAIの定義を導入し、AIシステムをリスク別に分類し、AIシステムに対する広範な要件と必要な保護メカニズムを定め、透明性の確保を義務化している。

 米カリフォルニア州は、1億ドル以上の費用がかかるか、一定量の計算能力を持つAIモデルに対し安全テストを義務付ける「AI安全法」を可決した。さらにG7(主要7カ国)では、生成AIの悪用リスクなどに関する情報開示の基準を定め、国際標準の仕組みとしての普及を目指そうとしている。

人がAIとどう付き合うかでAIの未来が決まる

 AI技術の機能が進化し、その適用範囲が増えると、AIの悪用リスクも増える。それに対する規制や対処とともに、AI技術の開発・使用に対して注意を払わなければならない。

 生成AIは、より多くの情報をカバーし、推論機能を持つAIや、役割を持つAIなどへと広がり、それらを使った自動化も増えていく。そうしたAI技術の浸透・定着を図るにはプラットフォームのマネタイズが不可欠になる。

 汎用の生成AIは、より多くの人が安価に使えることが望ましい。だが一方で、高付加価値の成果を実現するAI技術も存在する。これらをアプリケーションだけでなく、プラットフォームの利用料金も、その価値によって変えられる仕組みができれば、マネタイズが容易になり、プラットフォームの維持・発展が可能になる。進化するAI技術と人が、どう付き合って使っていくかこそが、AI技術の未来を決めていく。

大和敏彦(やまと・としひこ)

 ITi(アイティアイ)代表取締役。慶應義塾大学工学部管理工学科卒後、日本NCRではメインフレームのオペレーティングシステム開発を、日本IBMではPCとノートPC「Thinkpad」の開発および戦略コンサルタントをそれぞれ担当。シスコシステムズ入社後は、CTOとしてエンジニアリング組織を立ち上げ、日本でのインターネットビデオやIP電話、新幹線等の列車内インターネットの立ち上げを牽引し、日本の代表的な企業とのアライアンスおよび共同開発を推進した。

 その後、ブロードバンドタワー社長として、データセンタービジネスを、ZTEジャパン副社長としてモバイルビジネスを経験。2013年4月から現職。大手製造業に対し事業戦略や新規事業戦略策定に関するコンサルティングを、ベンチャー企業や外国企業に対してはビジネス展開支援を提供している。日本ネットワークセキュリティ協会副会長、VoIP推進協議会会長代理、総務省や経済産業省の各種委員会委員、ASPIC常務理事を歴任。現在、日本クラウドセキュリティアライアンス副会長。