トップへ

AI基盤構築の新常識!?
コスト効率を考えた現実的なAI導入術

ビジネスの成果を最大化するためには、データを活用する必要があるのは言うまでもない。そのためにはAI活用が欠かせないが、莫大なコストがかかるなどの理由で、AI導入に二の足を踏む企業が少なくないのも事実。そこで、今回は「人工知能サミット 2019」(2019年5月31日(金)、ホテル雅叙園東京にて開催)において、コスト効率よくAI活用するためのノウハウが語られた講演「既存資産でデータ解析の高度化を」の内容を紹介する。地に足をつけたAI活用とは、一体どのようなものか? そのヒントを探る。

AIの処理基盤にアクセラレーターは本当に必要なのか?

AIのビジネス活用――

それを実現するためには特別なハードウエアが必要不可欠だと考える読者は恐らく少なくないだろう。しかし「その認識は必ずしも正しくない」と語るのは、インテルのAIテクニカルソリューションスペシャリストを務める大内山浩氏。去る5月31日(金)に開催された「人工知能サミット 2019」内で、自身が登壇した講演での発言である。

インテル株式会社
AIテクニカルソリューションスペシャリスト
大内山 浩氏

例えば、AIの深層学習において学習処理を行う際、アクセラレーターとして、GPGPUを活用するのが一般的だ。しかし、大内山氏曰く、それが100%正解だとは限らない。

 

図1はアクセラレーター(GPGPU)と汎用的なCPUをAIに活用した際のパフォーマンスをまとめたもの。

確かにアクセラレーターはある特定の処理に関して高い処理能力を発揮する。しかし、それは限られた領域だけの話。一方、汎用的なCPUなら突出して能力を発揮できる領域はないものの、幅広い領域で一定の性能が出せる。

このことから、AI技術の進化を考えるなら、CPUを活用した方がメリットが大きいケースがあると大内山氏は主張する。

「AIの技術の進化のスピードは非常に速い。確かに現時点ではアクセラレーターが適しているシーンもある。ただその処理がずっと使われていく保証はない。例えば、ワークロードのモデルがシフトしてしまったときに、現在のアクセラレーターがそのまま使えるのかは疑問です。そうであるならば、汎用的かつ一定の処理能力を発揮できるCPUをAIに活用していただくことは間違った判断ではなく、むしろ合理的な判断だと考えられます」

また、図2に挙げたのは、AIソフトウエアを活用するために必要なプロセスとソフトウエアの全体像。アクセラレーターを使ったとしても、処理に使うのはこの内、赤枠で囲った部分だけである。処理速度を極限まで突き詰めたいのならいざ知らず、そうでないのならコストをかけて用意する必要があるかどうかは疑問だ。

またこの図の左部分にあるデータを取り込み、保存するための基盤は、既に持っているという企業が多い。

つまり、すべてのハードウエアを新たに用意しなくても、現在データセンターで使われているCPUやデータ保存基盤などのリソースをうまく活用することで、使用に堪えるどころか、理想的なAI活用基盤を構築できるケースがある訳だ。

「既にお持ちの基盤があるのならば、そこにインテルが最適化したソフトウエアを入れることでAI処理性能を向上できる可能性もあります(詳細は後述)。そうして皆様が必要とするパフォーマンスに到達できるかを検証していただきたい。そうすることで現実的でかつコスト効率のよいAI導入というのがやりやすくなるのではないでしょうか?」とは大内山氏である。

ハードウエア&ソフトウエア両方を
改良することでパフォーマンスが飛躍的に向上

CPUは、幅広い領域で平均的な処理能力が発揮できることは先に説明した通りだが、実はインテルでは、CPUのAI処理を高速化させる開発に注力している。

今年、第2世代に進化したインテル® Xeon® スケーラブル・プロセッサーは、処理能力の向上はもちろん、ディープラーニングの推論処理に特化した命令セット「ディープラーニングブースト」を搭載することで、AIのワークロードの高速化を実現。

また「AIのワークロードの最適化は、ハードウエアだけでなく、ソフトウエアに左右されるところが大きい」と大内山氏は強調する。そのため、同社では「ハードウエアの開発と合わせてソフトウエアの改良も積極的に進めている」というのだ。

例えば、ニューラルネットワークを稼働させるソフトウエアである「ディープラーニングフレームワーク」を、先述した特殊な命令セット「ディープラーニングブースト」を呼べるように最適化したり、CPUやメモリをより効率的に使えるようなチューニングを行っているのだ。

以上のようなソフトウエアの最適化を行うだけで、CPUが同じでも処理性能が285倍になったという実績がインテル社内にはあるというから、驚きである。

さらに講演では、インテルのCPUに特化したプラグインを搭載し、マルチプラットフォームを実現できる「OpenVINO™ ツールキット」についても言及。「ディープラーニングフレームワーク」で作られたモデルをインテルアーキテクチャに適したデータ形式に変換することで、パフォーマンスの向上が実現できることが説明された。

インテルのソリューションというと、どうしてもハードウエアにばかりが注目されがちだが、ソフトウエアの改良にも余念がないという訳。ハードウエアとソフトウエアの両軸で進化させているからこそ、インテルのCPUは、AI処理において、これまでのイメージを払拭するほどのパフォーマンスを実現可能なのである。

インテルの導入支援サービスでAIの取り組みが加速

ここまでで、インテル® Xeon® スケーラブル・プロセッサーをはじめとする同社のCPUおよびソフトウェア群が、AI処理基盤に活用できる高いポテンシャルを有することがお分かりいただけただろうか?

それでは、ここからは講演で紹介されたインテルの社員によるAI導入支援を活用したある海外石油メジャー企業の事例を紹介しよう。

一般的にはあまり知られていないが、インテルでは、ハードウエアの開発・販売だけではなく、AIを導入する企業を包括的に支援する活動を無償で行っているという。この活動では、まずは企業が抱えている課題をヒアリングした上で、把握した課題解決のインパクトなどを試算し、課題とソリューションの優先順位付けを行う。

紹介されたケースでは、インテル側から提示された複数のソリューションの中から「石油の採掘設備の不具合検出」を選択。ドローンがとらえた映像をAIが解析して不具合を発見するシステムを構築するプロジェクトがスタートした。

もしこのシステムにおけるAIの特に学習処理を「0.1秒でも処理時間を短くすることに最大級の重みを置くのであれば、アクセラレーターを用いる必要があった」と大内山氏。しかし、このケースでは、AIの学習頻度はそれほど頻繁ではなく、かつ、一回の学習時間も限られていたため、処理を最速化する必要性をROIやTCOといった客観的な観点で検討した結果、アクセラレーターが不要という判断となり、第2世代インテル® Xeon® スケーラブル・プロセッサーを活用することを提案したのだという。

実際の運用では、学習処理が必要になるのは、月に1回、しかも1回の稼働時間が10時間以下。そのため、昼間は別のアプリケーションで使っているリソースを月に1回間借りして、学習をさせているようだ。

以上の事例紹介の中で「同じCPUでも、インテルによってCPU上で動くソフトウエアは、日々最適化されています。ですので3か月前と3か月後ではパフォーマンスは格段に変わる可能性がある。CPUの性能というのは時間が経つほどあがっていきます。逆にいうとアクセラレーターが必要な領域がだんだん小さくなるのです」と大内山氏は付け加えたが、先を見据えれば、CPUを活用するメリットは大きくなるのである。

いずれにせよ、業種や目的によってAIに求められる要件や期待値が異なるのは当然のこと。それ故、その企業にとって最も合う形でAI技術を適応することが重要であるのは間違いない。インテルには世界各国で数多くのAI導入支援を行ってきた実績があるからこそ、多様な企業ニーズに対応できるのだろう。さらに、その活動によって蓄積されたノウハウが製品開発に活かされていることは言うまでもない。