• News
  • 共通

ビル管理システムと連携するフィジカルAIロボット、ソフトバンクと安川電機が共同開発

DIGITAL X 編集部
2025年12月12日

ビル管理システムと連携し複数のタスクを切り替えられるAI(人工知能)ロボットの仕組みをソフトバンクと安川電機が共同開発した。両者は、無線通信を利用するエッジコンピューティン環境におけるフィジカルAI技術の社会実装に向けた協業で覚書を交わしており、今回の開発は、そのユースケースの第1弾になる。2025年12月1日に発表した。

 ソフトバンクと安川電機が開発したのは、ビル管理システムと連携し、複数のタスクを切り替えながら動作できるAI(人工知能)ロボット。第1弾のユースケースとして、新入社員に配布するスマートフォン1台をビル内の倉庫の棚にある在庫から取り出せるようにした(図1)。ビル内の状況を踏まえて判断したり、想定外の事象に可能したりしながら、1台のロボットで複数の役割を担う多能工化につなげる。従来のロボットは、特定作業に特化して設計されており、複数タスクを同時に実行するのが困難だった。

図1:ソフトバンクと安川電機が共同開発する「フィジカルAI」の第1弾として、ロボットが棚のスマートフォンを取り出すシステムを仮想的に開発した

 開発した仕組みは、ビル管理システムと、MEC(Multi-access Edge Computing)上で動作しロボットへの指示内容(タスク)を生成する「MEC AI」、ロボットの具体的な動作を生成する「ロボットAI」からなっている。ビル管理システムは、ビル内で動作しているロボットからスマホを取りに行けるロボットを選び出し「スマホを取り出す」という新たなタスクを生成しロボットに指示する。そのタスクを受けたロボットが、その内容を理解し実際に動作する。

 開発に当たっては、ソフトバンクがMEC環境の提供と、「MEC AI」として動作するセンサーや外部情報などを基にタスクを生成するAI技術「VLM(Vision-Language Model)」を開発。安川電機はロボットの提供と、VLMの指示に基づいてロボットの動作を生成する「VLA(Vision-Language Action)」を開発した。

 今回の開発は、ソフトバンクが進めるAI技術とRAN(無線アクセスネットワーク)を組み合わせた「AI-RAN」と、安川電機が開発する自律型ロボット「MOTOMAN NEXT(モートマンネクスト)」とを利用したフィジカルAIの社会実装に向けた協業の一環。今後は、ロボットが対応できる作業領域を拡張するためのAI技術と通信技術を組み合わせた技術開発を進める。

 ソフトバンクによると、少子高齢化による人手不足や業務の高度化などを背景に、さまざまな業界で自動化・省人化のニーズが高まっており、AI技術やロボットの活用が求められている。しかし、ビルや病院、学校、百貨店など不特定多数が行き交う環境では、予測困難な事象や複雑な判断が求められ自動化が進みにくい。