将棋や囲碁でプロ棋士を破ったことで大きな注目を集める人工知能(AI)。最近ではスマートスピーカーや自動運転など適用分野も広がっている。
ここに来てAIが飛躍的に進化した背景には、ディープラーニングの実用化がある。従来の機械学習では、学習のために着目すべき「特徴量」を人間が指定する必要があった。しかしディープラーニングではニューラルネットワークと呼ばれる人間の神経構造を模したアルゴリズムを発展させることで、特徴量を自動的に見つけ出せるようになり、特徴量を明示しにくい複雑な問題にも適用可能となったのである。
しかしこれによって、新たな問題も指摘されるようになってきた。ディープラーニングによる判断プロセスはブラックボックスであるため、専門家でもAIが出した回答の理由や根拠を説明できず、「結果を本当に信頼してもよいのか」という疑念を払拭できないでいるのだ。
例えば医療現場にAIを導入するケースを考えてみてほしい。検査結果のデータから、AIが診断や治療内容を指示したとして、あなたはその結論を100%信頼する気になれるだろうか。判断プロセスがブラックボックスの状態でいきなり結論だけが出てくるというのでは、自分の健康や生命に関わる医療分野では、多くの人が拒否感を感じてしまう。
出てきた結論に対して根拠を示してほしいと感じる領域は、何も医療だけに限らない。大きなところでは国の政策から、金融分野の投資判断、身近なところでは会社の人事評価まで、さまざまなケースが考えられる。ディープラーニングはAI活用の可能性を大きく広げたが、ブラックボックスのままでは適用可能な領域が限られるのも、また事実である。
しかしこれに対する解決策が、最近になって具現化しつつある。富士通が世界で初めて開発した「説明可能なAI」である。