もはや多くの企業にとって重要な経営課題となったDX。その推進には、社内外に散在する様々なデータの分析・活用が不可欠だ。しかし実際には、必要なデータを迅速に集め、つなぎ、使えているケースは多くない。その大きな要因はデータの統合に大きなコストや労力を必要とするからだ。この課題を解決する有効な手段として期待されているのがデータ仮想化である。Denodo Technologiesの講演ではデータ仮想化の概要やメリットについて、事例を交えながら解説された。
なぜ、多くの企業で思ったようにデータ分析・活用が進まないのか――。その最大の原因は、その前段階に膨大なコストと労力がかかることにある。
大規模なデータプロジェクトでは、開発努力の80%がデータ統合に費やされているのが実情だ。要するに肝心のデータ分析・活用に振り向けられるのは残りの20%のみ。これではどんなにコストをかけたとしても、その成功はおぼつかない。
こうした状況についてDenodo Technologies 日本法人の中山 尚美氏は、以下のように指摘する。「従来のデータ統合手法には様々な課題があります。『常に大量のデータコピー(データのバケツリレー)が発生する』『データの鮮度やバージョンがまちまち』『初期構築および継続的なメンテナンスの負荷が高い』『ユーザーから要求があってから実際にデータを提供するまでのリードタイムが長い』『全社的なデータマネジメントの体制維持が困難』といったことはその一例です」。
こうした課題を解決する有効な手段として期待されているのが、データ仮想化である。データ仮想化とは、データを物理的に動かして新たな場所に統合(格納)するのではなく、データをオリジナルのデータソースに残したままメタデータを用いて仮想的なデータウエアハウスに統合、様々なビジネスアプリケーションやユーザーに対して、必要な形でリアルタイムに提供するアプローチだ(図1)。
データ仮想化には大きく3つのメリットがあるという。1つ目は「より早く、より正確にビジネスへ適応する柔軟性」だ。常に信頼性のある正確なデータを、ユーザーが使いやすいフォーマットでリアルタイムに提供可能となる。またデータソースの追加や変更にも瞬時に対応できる。
2つ目は「全社的なガバナンスやセキュリティの容易な実現」だ。コーポレートポリシーに基づいたガバナンスを利かせるとともに、すべてのデータをセキュアに使える状態に保ちつつリアルタイムに提供する。
そして3つ目が「ITコストの最適化」だ。複製データが削減されることから過剰なストレージへの投資コストや管理コストが抑えられ、ひいては開発工数の削減やダウンタイムの削減などにつながる。また、抽象化レイヤーによりデータが統合されるため、ビジネスユーザーへの影響を及ぼすことなく、よりコストパフォーマンスの高いシステムへの容易な変更が可能となる。
実際にデータ仮想化はROIの改善に劇的な効果をもたらす。フォレスター・リサーチ社が2021年に発表した調査結果によれば、Denodoのデータ仮想化基盤である「Denodo Platform」を活用することで、収益化までの時間(モデリング効率により短縮された価値創出時間)を83%短縮、データサイエンティストがデータを準備する時間を67%短縮、ETLと比べたデータ提供時間(データセットリクエストにかかる遂行時間)を65%短縮するといった効果を得られるという。
こうしたメリットに着目し、データ仮想化を活用する企業も多い。
ある大手製造業A社は新製品をローンチするスピードが競合他社に比べて劣っており、多くの販売機会をロスしてしまうという課題を抱えていた。そこでなぜ開発リードタイムが遅れるのか調査したところ、開発者が必要なデータを探し回り、さらにそれらのデータが正しいものであるのか確認するために、自分のワークロードの30~40%を費やしているという事実が明らかになった。
このボトルネックを解消すべく、A社はDenodo Platformを導入。「こうして実現したデータ仮想化により分散するデータを統合し、すぐに使える状態のデータカタログとして開発者に提供したところ、開発時間(Webサービスを開発する時間)、導入までの時間(Webサービスをデプロイする時間)、Time to Market(Webサービスを使用可能にするのにかかる全体的な時間)、影響分析などを軒並み従来の90%に短縮しました(図2)。最終的に50%まで短縮することを目指しています」と中山氏は語る。
日本のある大手建設会社B社でも散在するデータの統合作業を改善している。
B社では工事の実績情報、政府統計ポータル、市場情報データベースといったオープンデータと、自社のオンプレミスやSaaSの業務システムで運用しているデータを組み合わせて分析し、日々のオペレーションやビジネス計画に反映させている。しかしここで必要となるデータの突合はすべて手作業に依存しており、大変な手間を費やしていた。
そこでDenodo Platformによるデータ仮想化を導入。「一度データのパイプラインを定義すれば、以降は参照するたびにその時点の最新データが反映されることもデータ仮想化のメリットで、この建設会社は大幅な省力化を実現しています」と中山氏は紹介する。
大手製造業C社では、製造系や販社系など、部門や拠点ごとに縦割りで運用されてきた様々なシステムに分散していたデータをDenodo Platformで仮想的に統合。データのバケツリレーをなくすことでデータレイクやデータウエアハウス、データマートの維持管理に費やしていた作業を大幅に省力化。コスト削減を図るとともに、リアルタイムで高精度なデータ活用を実現している。
また、ある建設会社D社は、離れた現場で運用している建設機械からIoTセンサーで収集した稼働情報や老朽化情報、さらに部品インベントリ、保守サービス、ディーラーなどに関する情報をDenodo Platformで統合し、本社のダッシュボード上ですべて紐づけて見えるようにした。「この結果、各建機の保守作業を効率化し、稼働率を高めています」(中山氏)。
これらの事例からもいえるように、Denodo Platformを用いてデータ仮想化を行う場合、基となるデータはどこにあってもかまわない。「Microsoft AzureやAWS(Amazon Web Services)、GCP(Google Cloud Platform)といったクラウドはもちろん、オンプレミスであろうがパートナーのシステムであろうが、どこにでも手を伸ばして集めたデータを統合し、ユーザーやアプリケーションに渡すことができます。その意味でもDenodo Platformは、マルチクラウド/ハイブリッドクラウド環境にも最適なデータ仮想化ソリューションとなります」と中山氏は強調する。
実際にグローバルに展開している複数のデータセンターやクラウドのリージョンをまたぎ、分散しているデータをデータ仮想化によって統合している企業の実績もあり、今後のDX推進に向けてDenodo Platformは有効な武器になるといえるだろう。