• Column
  • データの散在で高まるデータ分析基盤の価値

データドリブン経営が求めるデータ分析基盤の基礎知識

齋藤 公二(インサイト合同会社 代表)
2022年7月21日

デジタルトランスフォーメーション(DX)において、その中核に位置付けられるのがデータに基づいた意思決定が下せる“データドリブン経営”へのシフトです。社内外に存在する、さまざまなデータを分析し、現状を可視化したり将来を予測したりすることで意思決定に必要なインサイト(洞察)を得ていきます。そこでは正確な分析を支えるデータ分析基盤が不可欠です。DXの推進に不可欠なデータ分析基盤の基本的な要件などについて解説します。

 デジタルトランスフォーメーション(DX)の文脈に沿って、新しいサービスの開発や既存の業務プロセスの改善、組織文化や社員の意識改革などが進められています。いずれの取り組みにおいても重要性が高まっているのがデータ分析です。統計的な分析だけでなく、AI(人工知能)技術を使った分析ニーズも強まっています。

ビッグデータが新たなデータ分析基盤を求める

 データ分析自体は決して目新しくはありません。コンピューティグ環境の発展とともに連綿と続いてきた取り組みです。業務の効率化や情報システムの運用コストの削減といった目的から、業務や経営の意思決定に役立てるための分析まで、さまざまな形で実施されてきました。

 2010年頃までのデータ分析基盤は、分析ニーズに合わせて構築するデータウェアハウス(DWH)が主流で、扱うデータは構造化データが中心でした。より具体的な分析ニーズに合わせたデータマートを構築する動きもありました。DWHやデータマートに基幹システムなどから必要なデータを取り出するために、ETL(Extract:抽出、Transform:変換、Load:書き込み)ツールなども多用されました。

 データ分析の専門家だけでなく現場の担当者がセルフサービス型でのデータ分析を可能にするために、種々のBI(Business Intelligence)ツールなども製品化されてきました。

 ただ近年の取り組みが従来と大きく異なるのは、分析対象になるデータにおいて、その量や種類、質、生成頻度などが大幅に増えた、つまりビッグデータ化が進んでいることです。新たなデータ群を加工せずに“生データ”のまま蓄積する「データレイク」といった概念も広がってきています。

 その背景には、IoT(Internet of Things:モノのインターネット)やセンサーから得られるデータや、SNS(ソーシャルネットワーキングサービス)のデータ、カメラによる画像・映像データ、公共機関などが公開するオープンデータなどの入手が容易になってきたことがあります。

 例えば、小売業が店舗の売り上げを把握しようとすれば、これまではPOS(販売時点情報)データに頼るしかありませんでした。その販売実績を元に、将来の売れ行きなどを予測し受発注業務の改善などに役立てるのが一般的でした。

 それが最近では、顧客の会員情報や購買履歴を使ってWebマーケティングを展開したり、店内あるいはEC(電子商取引)サイトの回遊データやSNSデータ、天候データなどを加味して、売れ筋や死に筋を予測したりが可能になってきています。

 他業界では、ドローンやWebカメラで撮影した画像をAI技術で分析し目視による外観検査では見つけられなかった傷や故障を発見したり、社員が取り組んでいるタスクや業務プロセスを分析することで社員が退職を考えているかどうかを推測し離職を思いとどまらせる対策を打ったりといった取り組みも始まっています。

 さまざまなシステムに散在するデータを有効に活用できるよう、ETLツールによるデータの抽出に加え、API(アプリケーションプログラミングインタフェース)経由での連携も一般化してきています。