日経ビジネスONLINE Special 週刊日経ビジネスオンライン SPECIAL日経ビジネスオンライン

理由と根拠も明示する「説明可能なAI」

ディープラーニングの実用化によって、AIの可能性は飛躍的に高まった。しかし、その判断プロセスはブラックボックスであり、これが適用可能領域を限定する要因になっていた。この問題を解決するために、富士通は世界で初めて「説明可能なAI」を開発した。具体的には、どのような手法でAIが出した回答の理由や根拠を説明できるようになったのか。最先端の研究内容を紹介しよう。

 将棋や囲碁でプロ棋士を破ったことで大きな注目を集める人工知能(AI)。最近ではスマートスピーカーや自動運転など適用分野も広がっている。

 ここに来てAIが飛躍的に進化した背景には、ディープラーニングの実用化がある。従来の機械学習では、学習のために着目すべき「特徴量」を人間が指定する必要があった。しかしディープラーニングではニューラルネットワークと呼ばれる人間の神経構造を模したアルゴリズムを発展させることで、特徴量を自動的に見つけ出せるようになり、特徴量を明示しにくい複雑な問題にも適用可能となったのである。

 しかしこれによって、新たな問題も指摘されるようになってきた。ディープラーニングによる判断プロセスはブラックボックスであるため、専門家でもAIが出した回答の理由や根拠を説明できず、「結果を本当に信頼してもよいのか」という疑念を払拭できないでいるのだ。

 例えば医療現場にAIを導入するケースを考えてみてほしい。検査結果のデータから、AIが診断や治療内容を指示したとして、あなたはその結論を100%信頼する気になれるだろうか。判断プロセスがブラックボックスの状態でいきなり結論だけが出てくるというのでは、自分の健康や生命に関わる医療分野では、多くの人が拒否感を感じてしまう。

 出てきた結論に対して根拠を示してほしいと感じる領域は、何も医療だけに限らない。大きなところでは国の政策から、金融分野の投資判断、身近なところでは会社の人事評価まで、さまざまなケースが考えられる。ディープラーニングはAI活用の可能性を大きく広げたが、ブラックボックスのままでは適用可能な領域が限られるのも、また事実である。

 しかしこれに対する解決策が、最近になって具現化しつつある。富士通が世界で初めて開発した「説明可能なAI」である。

>>

ディープラーニング+ナレッジグラフで判断の根拠(ロジッ...

本記事の続きを無料でご覧いただけます

【ご利用に際しての注意】
本コンテンツの2ページ目以降を閲覧いただく方の個人情報(日経BP社に登録されている氏名、メールアドレス、住所、勤務先、所属部署、電話番号、およびアンケートのご回答内容など)は、日経BP社から富士通株式会社に第三者提供いたします。
下記「個人情報取得に関するご説明」をよくお読みいただき、ご同意の上、利用してください。

富士通株式会社、及び富士通グループ会社並びにパートナー企業は、ご提供いただきましたお客様の個人情報を、以下に掲げる目的で利用いたします
‐ アンケートのご回答に対するご連絡、お問い合わせ等の対応(電話、E-mail)
‐ イベント・セミナー情報や製品・サービス情報の案内・紹介(電話、E-mail、DM等)

富士通株式会社から富士通グループ会社並びにパートナー企業へ個人情報を提供する際は、契約により適切な管理を義務付けた上でE-mail等で提供いたします。
お客様の個人情報は、各社の個人情報保護ポリシーに基づき、適切に管理します。

  • 第三者提供先の個人情報保護方針についてはこちらをご確認ください。

閲覧する