日経ビジネス電子版 Special
Seminar Review
2022.4.19(Tue) @Online

AIガバナンスセミナー
─ AIをビジネスに活用したい全ての方へ ─

あらゆる企業がDXを迫られる中、その推進にはAIの活用が必要不可欠だ。しかし、AIの活用方法や利用者側の理解にはいまだ課題があり、安全性・信頼性を高めるためにも倫理やガバナンスの整備が不可欠である。そこでPwC Japanグループでは、AIガバナンスについて解説・議論するオンラインセミナーを開催。各界をリードする企業や有識者たちと共に、より良いAI社会の可能性を探る。

AIと仕事の未来

AIの普及によって働き方はどう変わるのか。「AIと仕事の未来」と題した基調講演では、東北大学名誉教授の原山優子氏が、自身の分析やGPAI(Global Partnership on AI)の活動から得られた知見を紹介した。

AI時代に問われる人間らしい働き方

東北大学名誉教授
理化学研究所前理事
原山 優子

 生活のあらゆるシーンに浸透しつつあるAI。その技術発展は、労働力不足や自然災害への対策、あるいは安全保障や防衛の観点からも期待されており、国家戦略の一つともなっている。だが、AIは様々なことを可能とするイネーブリングテクノロジー(実現技術)である一方、意図せぬ効果をもたらすこともある。

 「AIは過去データから解をはじき出すため、使うデータによってバイアスが生じたり、プライバシーの侵害に問われたりする場合もあります。また、AIが進化すればするほど、判断のブラックボックス化という問題も浮き彫りになるでしょう」(原山氏)

 これまでの製造業の自動化とは異なり、すべての業界業種でAIの導入が進むことにより、「仕事が奪われるのではないか」という懸念も生まれる。もしそうなったとき、AIに対する人間の競争優位性はどこにあるのか。これを突き詰めると、「そもそも働くとはなんぞや」という根本的課題に行き着くと原山氏は言う。

 AIによって問われる「働く」ことの意義。これを原山氏は、フランスの1970年代の流行歌やSociety 5.0に至るまでの人類の歴史になぞらえて解説。

 「狩猟、農耕、工業、情報の時代を経て、私たちは今、働くことは自己実現であり、社会貢献であり、創造的であるという価値観を形成しています。そしてAIは、これらを阻害するものではなく、むしろけん引役であると捉えることもできます」(原山氏)

 では、実際のところはどうなのか。現状を把握するためにはマクロ分析ではなく、個々のケーススタディに当たる必要がある。

 「世界には様々な文化的背景、制度的特性があるがゆえに、AIによる働き方への影響やその受け止め方に違いがあります。その比較検討を可能とする国際的枠組みが、Global Partnership on AI(以下、GPAI)です」(原山氏)

AIの概念と現場をつなぐGPAIの活動

 GPAIは、「人間中心」の考えに基づく責任あるAIの開発と活用に取り組む国際的なイニシアチブだ。2020年6月の発足以来、世界各国の政府や市民、産業界、科学技術の専門家などマルチステークホルダーによる議論を行い、AI原則と実践の橋渡しとなる活動を行っている。

GPAIの特徴は

責任あるAIの開発と活用を目的として2020年に発足したGPAI。専門家によるワーキンググループが活動をけん引する(原山氏の発表資料より)

 中でも、原山氏が共同議長を務めていた「仕事の未来」ワーキンググループでは、2つのプラットフォーム(リアルユースを収集するObservation Platform of AI at the Workplace と、未来に向けた実験の場リビング・ラボ)で、6つのテーマ(事例集、人材育成、人間-機械の協調、バイアスの管理、働き方の条件、リビング・ラボ)について専門家が議論。日本においては、学生による企業インタビューを活動の一つにしているという。

 「インタビューでは、いくつかのグッドプラクティスの存在を確認できました。多くの企業において、AI利活用の目的は人材不足やサービス品質向上にあり、その取り組みは成功しています。ただし、技術面やAIと人間の関係性構築にはまだ課題があることも分かりました。そこには、人間とは何か、働くとはどういうことかという根源的なテーマが色濃く影響しているように思います」(原山氏)

 結論として、「AIと共存していくためには、”働く”ということを再考しなければならない」と原山氏は訴える。それには、価値観の共有が前提となる。

 「今後技術が進化していく中で、グローバルな視点による共感の形成はより一層重要になっていきます。多様な価値観を共有しながら、様々なステークホルダーが共にAIや働き方をデザインしていく必要があるでしょう」(原山氏)

 目指すべきは、”intelligent use of artificial intelligence”。つまり、「我々自身がAIの賢い使い手になっていくこと」だと原山氏は言う。「AIと仕事の未来」を開く鍵は、まさにその一言に集約されている。

AIと仕事の未来

続く対談では、原山優子氏の基調講演を踏まえ、PwCコンサルティング合同会社の築地テレサ氏より2つの質問が投げかけられた。両者の対談から、「AIと仕事の未来」のあり方をさらに深掘りしていく。

PwCコンサルティング合同会社
データアナリティクス
シニアマネージャー
築地 テレサ

AIの不公平バイアスはどこから生じるのか

 AIの活用は企業にメリットをもたらすと同時に、新たな問題を表出させるきっかけともなる。多くの企業を支援する中で、築地氏が肌で感じる課題の一つは、「AIにおけるフェアネス(公平性)」であるという。そこで、「不公平なバイアスを排除し、ダイバーシティを担保するためには何が必要でしょうか」という問いかけから対談は始まった。

 原山氏は「バイアスをかけているのはAIではなく、人間である」としたうえで、「AIは、人間社会の課題を写し出す鏡」であると説く。

 「すなわち、企業にダイバーシティの視点がないと、AIに与えるデータやアルゴリズムにも偏りが生じ、結果的に不公平性を招いてしまうのです」(原山氏)

 多様性の欠如は、ビジネスの生産性にも悪影響を及ぼす。人間は本来、異質な存在に”居心地の悪さ”を感じるものだが、一方で多様な人や価値観との出会いは新しい発見や成果にもつながる。いわば”居心地の悪さ”を超えた先に、チームや組織としての進化があるというわけだ。だからこそ、企業は多様性を育んでいく必要があり、AI活用はそのトリガーともなり得る。

 だが、「過去データに潜むバイアスやそのアウトプットの調整に試行錯誤する企業はまだ多い」と築地氏は指摘し、AIに多様性を採り入れるポイントはどこにあるのか原山氏に聞いた。それに対し、「第一は企業内での議論にある」と原山氏は説明する。

 「AIの活用によって顕在化した問題を企業自身が見直し、AI開発者も含めた様々な立場の人たちと議論する。それが多様性の意識化につながります。その結果、正しいと思う形でAIを回してみても思い通りにいかないこともあるでしょう。ゆえに何度も修正を繰り返し、多様な目線で検証し続けていくことが重要です」(原山氏)

リビング・ラボの発想を企業に採り入れる

 次に築地氏から「AIによる働き方や従業員ニーズの変化に対し、企業はどのようなアクションを起こすべきか」という2つ目の質問が投げかけられた。これに対して、原山氏はGPAIでのリビング・ラボを例に、小さな実験スペースを作ってみることを提案。リビング・ラボとは、AIと働き方に関する事例を集め、未来につなげるための実験の場だ。

 「AIにより労働環境や就労条件も変わっていく未来に、従業員が求めることは何か。まずはそこから定義し直す必要があります。その上で、ニーズに対応し得る制度や仕掛けを小さく実験的に回してみるのです。うまくいかなければ、課題を抽出してまた別のやり方を試す。この学習プロセスを社内外で共有していくことで広く知見を集積し、将来に備えておく姿勢が大切です」(原山氏)

 「体力のある大企業が率先してやることに意義がありそうですね」と築地氏。最後に「それも一社で閉じず、ある種オープンイノベーションのような形でいろんな人を巻き込んでいくというところに、目指すべきダイバーシティのあり方も見えてきました」とコメントし、原山氏との対談を締めくくった。

~国内外のAIガバナンス動向~
日本が推進するアジャイル・ガバナンスとは

パネルディスカッション①では、経済産業省の泉卓也氏、東京大学未来ビジョン研究センター准教授の江間有沙氏、PwCあらた有限責任監査法人の宮村和谷氏が登壇。PwCコンサルティング合同会社・三治信一朗氏による進行の下、日本が推進するアジャイルなAIガバナンスについて、産官学それぞれの立場から意見を交わした。

  • 経済産業省
    情報経済課・
    情報政策企画調整官
    (2022年3月まで)

    泉 卓也

  • 東京大学
    未来ビジョン研究センター
    准教授

    江間 有沙

  • PwCあらた有限責任監査法人
    パートナー

    宮村 和谷

  • 〈モデレーター〉
    PwCコンサルティング合同会社
    パートナー
    Technology Laboratory
    所長

    三治 信一朗

AIの普及促進に向けたガバナンスの整備

 「PwCの2022年AI予測調査(日本)※1によると、21年時点で全社的にAIを導入している企業は16%と、前年の5%から大きく伸長。その一方で、AIの公平性や信頼性を危惧する声もあり、企業内でもガバナンスに関する取り組みが急務となっています」とモデレーターの三治氏が切り出した。

 そうした企業に向けて、経済産業省は21年7月に、「AI原則実践のためのガバナンス・ガイドライン ver・1.0」を発表。執筆をリードした泉氏は、「一部の負の側面によってAIの普及促進が妨げられることのないよう、AIへの理解を深め、正負のコントロールを支援するためにガイドラインを作りました」と説明する。

 もちろん、ガイドラインがあればすべて解決というわけにはいかない。「当事者意識として腹落ちさせることが肝心」だと泉氏は強調した。

 では、AIを使う企業が心がけるべきことは何か。ガイドライン検討会の一員でもある宮村氏によれば、「ステークホルダーを巻き込んだ展開」であるという。

 「AI運用に関わるデータサイエンティストやエンジニアだけでなく、サプライチェーンやサービスプロバイダーといったすべての関係者たちと共に、AIガバナンスのあり方を検討していくことが大切です」(宮村氏)

 一方で、中小企業においては、AIのメリット・デメリットを十分に理解し、普及促進につなげていくことが重要だという。

 「テック系のスタートアップであれば、社内のリスクコントロールは長けていますが、ステークホルダーへの対応までは難しい。そこは産官の連携でサポートしていく必要があると考えています」(宮村氏)

 アカデミアからの視点として、東京大学の江間氏は、「企業がどんなビジョンを実現したいのかを明確にすることが先決」であると言う。

 「例えば採用AIを作るときも、目指す組織のあり方が定まっていないと、使うデータや要件も判断できず、その際生じる公平性の観点も変わってきます。ですから、AIを活用する際には経営層だけでなく、従業員やステークホルダーも一緒にベースとなるビジョンを議論していく必要があります」(江間氏)

 東京大学未来ビジョン研究センターのAIガバナンスプロジェクトでは、AIサービスのリスクコントロールを検討するためのケーススタディとモデルを研究中だ。

 「様々なリスク事例や議論のプロセスを公開することで、企業のガバナンス策定に役立てていただくのが狙いです」(江間氏)

※1:PwC Japanグループ「2022年AI予測(日本)」
https://www.pwc.com/jp/ja/knowledge/thoughtleadership/2022-ai-predictions.html

AIガバナンスにこそアジャイルの実践が必要

 AIガバナンスに関して、海外と日本ではどのような違いがあるのだろうか。

 大きな相違点の一つは、「責任の所在」にあると江間氏は言う。

 「GAFAのような巨大B2Cカンパニーでは、問題が生じた際も迅速な消費者対応ができ、開発にもすぐ反映される仕組みが整っています。対して、B2B企業が大半の日本はサプライチェーンが長く、エンドユーザーまでの距離も遠いことから対応が遅れ、問題の特定や責任の所在も不明確になりがちです」(江間氏)

 AIのような変化の速い技術領域においては、問題解決にもスピードが求められる。AIによって生じるリスクも状況や環境に応じて刻々と変わっていく。最初にルールを作っても対応が追いつかないこともあるだろう。そこで、「AI原則実践のためのガバナンス・ガイドライン ver・1.0」には、環境変化を前提とした「アジャイル・ガバナンス」の考え方が採り入れられているという。

 アジャイル・ガバナンスとは、常に周囲の環境変化を踏まえてゴールやシステムをアップデートしていくガバナンスモデルのこと。それに関して、泉氏と宮村氏は以下のようにコメントした。

 「ガイドラインでは、まずリスクや現状の分析をしてゴールを設定し、それを達成するための組織やルールを作ります。運用に当たってはガバナンスをステークホルダーに説明し、さらに運用評価においても外部の目を入れつつ、うまくいかなければ運用マネジメントやゴールそのものを見直す。このサイクルを高速に回すことで、より良いAIガバナンスを追求していきます」(泉氏)

 「大切なのはイノベーションを止めずに、信頼できるAIのサービスを継続的に提供していくこと。リスク管理の方法についても、みんなで検討した経緯を明らかにしていくことを心がけています。そうして多くの視点からノウハウを共有し蓄積することで、ガイドラインもまたver.2、ver.3とレベルアップしていく。それがアジャイル・ガバナンスの目指すところです」(宮村氏)

AIガバナンスのベストプラクティスとは?

 三治氏から最後に、「日本企業におけるAIガバナンスのベストプラクティスとは何か」と問いかけた。これに対し、江間氏はまず、「ベストプラクティスはプリンシパル(原則)にひもづいていないといけない」と説いた。

 「プリンシパルで押さえるべきは、How、What、Who。何に価値を置き、誰をどう巻き込んでいくかが重要です」(江間氏)

 一口にベストプラクティスといっても、AI利活用の領域もあれば働き方に関するもの、信頼できるAIや持続可能なAIといった技術的なプラクティスもある。「その上で、人とAIの関係性という観点からのベストプラクティスを議論し、多くのステークホルダーと共に実践を積み重ねていくことが大事だと考えています」と江間氏。

 日本企業のベストプラクティスに共通する特徴として、宮村氏は「成熟度に応じた展開」を挙げる。

 「サービスの企画段階から運用、サプライチェーンへの展開といった各スコープにおいて、プラクティスの管理とガバナンスコントロールを並行して行い、徐々にその範囲を広げていくという方法が、ベストプラクティスの現実解と言えるでしょう」(宮村氏)

 「具体的なベストプラクティスは、個々の企業で開発していくしかない」と言うのは泉氏だ。「それには業界や企業特有の課題を認識し、議論することが大切です。AIガバナンスを社内に浸透させるのは大変ですが、まずは志のある小さな集団で始めてみて、様々なプラクティスを検証してみる。実はこのプロセス自体に大きな価値を見出す企業は多く、それを資産として社内に広めていくことができます」(泉氏)

 まずは最初の一歩を踏み出すこと。それがベストプラクティスへの近道となるようだ。

How、What、Whoの原則に基づく実践からベストプラクティスや必要技術を導き出し、エコシステムへとつなげていく(江間氏の発表資料より)

最新事例から学ぶ、
日本企業のあるべきガバナンス体制

パネルディスカッション②では、 ソニーグループ株式会社 AIコラボレーション・オフィスの今田俊一氏、日本マイクロソフト株式会社 政策渉外・法務本部の舟山聡氏が、両社のAI倫理活動を紹介。PwCコンサルティング合同会社の藤川琢哉氏と共に、日本企業のあるべきガバナンス体制を考察した。

  • ソニーグループ株式会社
    AIコラボレーション・オフィス
    AI倫理室 統括課長

    今田 俊一

  • 日本マイクロソフト株式会社
    政策渉外・法務本部
    副本部長
    弁護士

    舟山 聡

  • PwCコンサルティング合同会社
    パートナー
    データアナリティクスリーダー

    藤川 琢哉

  • 〈モデレーター〉
    日経BP 総合研究所
    フェロー

    桔梗原 富夫

2つの企業に見るAI倫理取り組みの最前線

 「クリエイティビティとテクノロジーの力で、世界を感動で満たす」をパーパスに挙げるソニーグループでは、「豊かな生活とより良い社会の実現」のためのAI利活用を掲げている。同社の今田氏は、「当社ではAIの開発・利活用を最大限に推進・加速することを目的に、その行動規範となる『ソニーグループAI倫理ガイドライン』を策定しています」と説明する。

 同社では委員会主導の下、ガイドラインを遵守・実現するためのガバナンス体制を構築。さらに社員一人ひとりの意識を高める教育と啓発、事例検証に基づいたパイロットアセスメントを実施した上で、組織内でのルール化やプロセスの構築と運用につなげている。

 「AI倫理アセスメントを進めていくプロセスでは、”AI Ethics by Design”、すなわち開発早期から倫理を考えることを大切にしています。開発サイクルの後段でリスクを認識しても対応が間に合わないからです。そこで早期の理解と教育、アクションを推進すると同時に、開発の各フェーズにおいてQMS(品質マネジメントシステム)やアセスメント用ツールを活用し、AI倫理の遵守確認に努めています」(今田氏)

ソニーのAI倫理活動

(今田氏の発表資料より)

 一方、日本マイクロソフトでは、AIガバナンスを「責任あるAI」として重要視する。「公平性、信頼と安全性、プライバシーとセキュリティなど6項目を基本原則とし、これらを実践に結びつけるために様々な取り組みを行っています」と同社・舟山氏は言う。

 「責任あるAI」原則の実施においては、まずガバナンスに基づいてルールを定め、教育訓練を行う。次に実運用と検証を繰り返して、それをツールとプロセスに落とし込んでいく流れとなる。米国本社をハブとし、その取り組みを放射状に全世界へと広げていくハブ&スポークモデルで、余すところなくAI原則の実践を浸透させていく手法も同社の特長だ。

 「マイクロソフトCEOが、『責任あるAI』の概念を発表したのが16年。その後AI倫理委員会を設置し、社内基準を策定するまでに約5年がかかっています。それでも完成形というにはほど遠く、まだまだ道半ば。長い道のりを覚悟し、社内外の各所と連携しながら取り組んでいます」(舟山氏)

責任あるAI原則の実践への道

(舟山氏の発表資料より)

トップダウンの取り組みが推進を加速

 AIガバナンスについてはまだ検討中の企業も多い中、ソニーグループと日本マイクロソフトは早い段階から取り組みを始めている。PwCの藤川氏は、その点を大きく評価した上で「ガバナンスは重要であるものの、時にAIの精度や勢いを削いでしまうこともあります。現場の理解やエンジニアの協力を仰ぐ際に、苦労や困難はなかったのでしょうか」と両氏に質問した。

 この問いに対し、舟山氏は、「マイクロソフトの場合は、トップダウンでの取り組みがスムーズな周知と実践につながったと思います。また、社内のみならず外部とのコラボレーションにおいても、倫理を明らかにするためにコミュニケーションの透明性を大切にしています」と回答。

 AIガバナンスをトップダウンで進める重要性については、今田氏も同意する。

 「信頼できるものを作ることが、AIの推進につながる。だからこそガバナンスが必要である、というメッセージをトップが伝え、現場や教育に落とし込んでいくことが大切です。当社の場合は、ビジネスユニットごとにエバンジェリストやエンジニアのリーダーを置いて、縦横の連携を取りながら進めています」(今田氏)

 AIガバナンスのノウハウを蓄積するに当たっては、内外の連携が重要だ。マイクロソフトでは、世界に点在する同社研究部門の知見に加え、産官学との連携を通じて得たノウハウをベースにAIガバナンスをアップデート。同社を含むAI大手6社が設立した国際NPO「パートナーシップ・オン・AI」にはソニーグループも参画し、エキスパート・アドバイザーとして団体の活動に助言を行う。

 藤川氏も、日々の業務でAI倫理についてのアドバイスを求められることは多いと言う。

 「AIガバナンスは一度作ったら終わりではなく、状況に応じて更新していく必要があります。そのため、常に情報をリサーチしながらタイムリーかつ柔軟にシステムを変更していくことが重要であるとご提案させていただいています」(藤川氏)

健全なサプライチェーンに必要なのは「透明性」

 多くのステークホルダーが複雑に絡み合うのもAIマーケットの特徴だ。藤川氏は、「AIガバナンスを遵守するために、AIサービスを提供する立場とそれを活用する側はそれぞれどのような点を意識すべきでしょうか」と両氏に聞いた。

 「公正なAI運用には、透明性が不可欠です。私はよく食品成分表を例えに出すのですが、そのAIが”どのようなデータで作られて、どんな評価性能を持っているのか”が伝わるような情報込みでAIを流通させることが、サプライチェーンの健全化につながると考えています」(今田氏)

 「データの提供者が利用者になったり、AIツールを活用する側がそれを組み込んで新しいサービスを提供したりと、AIには提供者と活用者が明確に分けられない側面があります。その特徴を踏まえ、サプライチェーン全体の中での役割変化を十分に意識して倫理対応していく必要があるでしょう」(舟山氏)

 今後、AIがビジネスのキーテクノロジーとなっていくことは間違いない。それを大きく後押しするのが、AIガバナンスの役割だ。藤川氏は、「ガバナンスに取り組む企業は、パートナーやサプライヤーをはじめ様々なステークホルダーと連携していくことが大事」だと改めて強調する。そして最後に以下のようにコメントしパネルディスカッションを締めくくった。

 「AIで競争力を獲得するためにも、企業の皆様にはぜひ経営者のコミットメントの下、強力なトップダウンでAIガバナンスを推進していただきたいと思います」(藤川氏)