Skip to content Skip to footer
Search

Loading Results

戦略的AIガバナンス――イノベーティブなAIサービスを社会実装しスケールさせていくための戦略課題

はじめに

労働者不足や業務の効率化・高度化・新しいビジネスモデル構築などの経営課題に対処するため、さまざまな事業・業務領域でAIの導入が急速に進んでおり、今後さらに普及が拡大すると予想されます。一方で、AIのデータ処理過程のブラックボックス化、学習データの品質が低いことに起因するミスリード、セキュリティ対策の不足による情報漏えい、非倫理的な利用によるプライバシーの侵害や差別の助長などに関する懸念が生じています。また、AI導入の目的が不明瞭なまま戦略不十分で場当たり的な対応をすることで、結果的に必要なデータの蓄積が不十分などのプロセス、インフラに起因する課題がボトルネックとなり、導入を推進できない、期待した成果が得られないなどの問題も発生しています。

このような状況を踏まえ、内閣府は「人間中心のAI社会原則」を公表しています※1。これには、(1)人間中心の原則、(2)教育・リテラシーの原則、(3)プライバシー確保の原則、(4)セキュリティ確保の原則、(5)公正競争確保の原則、(6)公平性、説明責任および透明性の原則、(7)イノベーションの原則が掲げられています。

先進的な企業では、創造するビジネスが社会に与える正のインパクトや負のインパクトにつながるリスクとオポチュニティを考慮し、「人間中心のAI社会原則」を目標とした、正負のバランスをコントロールした合理的かつ適切なガバナンスおよびマネジメントシステムを整備・運用していく「AIガバナンス」を実装することで、AI活用を推進している事例も出てきています。

本稿では、前述したAI導入における課題の解決アプローチとして、「人間中心のAI社会原則」を目標として、企業が具備すべき「AIガバナンス」について検討します。

なお、文中の意見にわたる部分は著者の私見であり、PwC あらた有限責任監査法人または所属部門の正式見解でないことをあらかじめお断りします。

1 国内外のAIガバナンスに関わる議論は活発化

世界各国においてAIガバナンスに関わる議論は活発化しています。2017年のアシロマ原則※2、GAFAによるAI原則、前述した人間中心のAI社会原則など、従来からAI原則に関わる議論はありましたが、国際的なコンセンサスがおおむね形成されつつます。現在は、その原則をどう社会に実装していくかのAIガバナンスの議論に進んできています。例えば、欧州委員会は2021年4月に、AIを規制する枠組みの規則案を発表しました※3。AIをその用途や目的などを考慮して類型化し、リスクに応じた要件や規制の導入が提唱されており、法制度化に向けた審議が行われています。

一方、日本においては、「統合イノベーション戦略2020」※4に記載されているように、「AI社会原則の実装に向けて、国内外の動向も見据えつつ、わが国の産業競争力の強化と、AIの社会受容の向上に資する規制、標準化、ガイドライン、監査等、わが国のAIガバナンスの在り方を検討する」こととなっています。国際的な動向を踏まえ、経済産業省は、現時点で望ましいと考えられる日本のAIガバナンスの在るべき姿を、「我が国のAIガバナンスの在り方ver1.1」として取りまとめ、2021年7月9日に公表しました。また同日、「AI原則実践のためのガバナンス・ガイドラインver1.0」(以下、AIガバナンス・ガイドライン)がパブリックコメントに付されました。また、国立研究開発法人産業技術総合研究所から、AIの設計開発における品質マネジメントに関する「機械学習品質マネジメントガイドライン」が2020年6月に公表されています※5(その後、2021年7月に第2版が公開されています)。

AIガバナンス・ガイドライン

AIガバナンス・ガイドラインは、リスクベースアプローチを採用しており、正負のインパクトに鑑みて、組織の習熟度に応じて取り組むサービス内容や必要な改善を検討するためのガバナンス態勢の検討を促すものです。EUで検討されているいわゆるAI法案のような法的拘束力のある横断的な規制とは異なり、非拘束なガイドラインです。当ガイドラインは、組織において求められるガバナンス態勢について、個別具体的な状況に依存しない一般的かつ客観的な「行動目標」と、事業者の個々のAIサービスの個別事情に応じて取捨選択して評価する「乖離評価」等から構成されています(図表1)。提示されている行動目標と乖離評価の概要は以下のとおりです。

図表1 AIガバナンス・ガイドラインにおける行動目標

行動目標

  • 環境・リスク分析
    AIシステムに関わる環境や価値提供モデル全体を理解し、会社単位(場合によっては事業部単位)の方針を決めるにあたっては、自社のAI習熟度(AIシステムの開発・運用時に求められる準備がどれだけできているのか)、AIシステムがもたらしうる潜在的なものも含めた正負のインパクト、AIシステムの開発や運用に関する社会的受容を考慮すべきである。
  • ゴール設定
    潜在的な負のインパクトの性質や大きさを考慮しながらステークホルダーにとって受容可能な水準に管理する際の羅針盤となる会社単位(場合によっては事業部単位)のAIガバナンス・ゴール(いわゆるAIポリシー)を設定するか否かについて検討すべきであり、潜在的な負のインパクトが軽微である等の理由によりAIガバナンス・ゴールを設定しない場合には、その理由等をステークホルダーに説明できるようにすべきである。
  • システムデザイン
    AIガバナンス・ゴールからの乖離の評価(GapAnalysis)と乖離への対応、AIマネジメントシステムを担う人材のリテラシー向上、適切な情報共有などの事業者間協力によるAIマネジメントの強化、インシデントの予防や早期対応を通じたインシデントに関わるAIシステム利用者の負担軽減等をすべきである。
  • 運用
    AIマネジメントシステムおよび個々のAIシステムの運用状況について説明可能な状態を確保※6することである。また、ステークホルダーとの一層円滑なコミュニケーションのために、これらの情報を非財務情報に位置づけて積極的に開示することを検討すべきであり、開示しない場合には、その理由等を説明できるようにすべきである。
  • 評価
    AIマネジメントシステムの設計や運用から独立した者に、その設計や運用の妥当性を評価※7させるべきである。上述の運用状況に関する情報を用いながら社内で妥当性の評価を実施すべきことはもちろんのこと、株主だけではなく、ビジネスパートナー、消費者的利用者、AIシステムの適切な運用をめぐる動向に詳しい有識者などのステークホルダーの意見に耳を傾けることを検討すべきである。
  • 環境・リスクの再分析
    AIガバナンス・ゴールの設定自体の妥当性を検証するために、自社のAI習熟度、AIシステムがもたらしうる正負のインパクト、AIシステムの開発や運用に関する社会的受容からなる環境・リスクの再分析を適時に実施すべきである。

乖離評価(図表2)

  • 企画・設計段階
    企画段階に、これから開発するAIシステムの潜在的な利用者・用途を想定し、システムに求められる倫理面、公平性、個人への配慮やサイバーセキュリティ等を把握しているかを評価する。また、それらの課題がある場合、設計全般として対処しているかを評価する。
  • 開発段階
    AIシステムに用いられるデータについて、適法、公正、一般的に妥当な方法で、取得・収集・管理・利用しているか、データ品質の確保や不公正を助長しないよう配慮しているかなどを評価する。また、用いられるモデルについて、精度、公平性、妥当性、説明可能性に配慮し、かつ維持できるように管理方法を定めているか評価する。
  • 運用・モニタリング段階
    AIシステムの運用者のリテラシーの把握、機能・効果についての理解およびAIシステムのモニタリング支援・管理方法について適切に運用されているかを評価する。
図表2 AIガバナンス・ガイドラインにおける乖離評価

前述したように、AIガバナンスについて自社の状況を把握するとともに内外へ説明し、同意や合意を得ることが、AIを用いたサービスを普及・促進していくために重要になります。当ガイドラインは、自社の習熟度に応じてガバナンス態勢を段階的に整備・改良していくものであり、過度な規制がイノベーションの阻害にならないように配慮されたものです。特に新規事業やスタートアップ企業にとっては、AIガバナンス・ゴールも見据えつつ、合理的で効果的な対応をするにあたって参考となるものです。

2 AIガバナンスの検討のポイント

伝統的に機械学習等を用いたモデル開発における確認事項・手法として、モデルに投入するデータの正確性・網羅性確認、過学習防止のためのバイアスの確認、精度のモニタリングと改修モデルの検討といったことは暗黙の了解として実施されてきました。

一方、クラウド等の出現による環境変化が進んだことで、頑強で汎用的に適用できるモデルの型や簡易に実現できるソフトウェアの登場、ストレージ容量の増加や処理能力調達が容易になったこと等により、大がかりな機器類や高価な設備を必ずしも必要とせず、モデルの開発現場も必ずしも数理学的な専門知識がなくても利用できるなどの大衆化および大規模化が起きています。

その結果、暗黙的であるにせよ、これまでは当然に実施されていたことが行われず、単にソフトウェアにデータを投入し、得られた結果を安易に受け入れる等の不十分で誤った使い方をしている場合もあるかもしれません。

それは、モデル開発における確認事項・手法の抜け漏れはシステム開発の1つとしてのプロセスに組み込んだり、標準化したりすることで解決するかもしれません。モデル開発時の品質管理については、前述の「機械学習品質マネジメントガイドライン」を参考にすることで標準化を推進していくことも考えられます。また、バイアス確認をするようなツールはすでにあるので、検証は可能になってきています。

ただし、それらは単一なソリューションを提供するときの確認事項・手法であり、AIサービスは、その学習データやインプットデータ等も含め、単一の組織だけで完結しないサービス展開が広がっていくと想定されます。その観点でガバナンスを適切に行っていくためには、サービスやマネジメントシステムの設計にコントロールやガバナンス機能を盛り込むことが重要になります。そのためには、サービスのサプライチェーンワイド、企画から運用というバリューチェーンワイドの目線から正負のリスクを検討し、コントロールやガバナンス機能を構築していくことが重要になります。

そのため、本来的なAIガバナンスを検討する際には、前述した行動目標にも挙げられていた組織の環境やリスクを考慮して、ステークホルダーを意識しながら、AIガバナンス・ゴールを設定し、ゴールとの乖離を評価して、組織の習熟度にあわせてAIガバナンスを醸成していく戦略が必要です。また、当該ガバナンスを醸成するためには、経営の指導力と実行力に依存することが大きいです。

経営者、管理者は何をすべきか

経営者がAI活用に期待するものとして、新規ビジネスの創造や業務プロセスの改革があります。経営者の期待に応えるために、AIを活用する初期段階においてはそれぞれの現場で検討を始めることがあります。一方で、「AIガバナンス」は個々に実施していくものではありません。例えば、各現場でデータベース等を作成し重複してしまったり、AIに用いられるモデルの精度や説明責任を担保するために、各現場で基準を設けることは合理的ではありません。また、組織の壁を越えてAIに投入するデータの品質を担保したり、プライバシーへの配慮を欠いたりすることで個人の権利を侵すことがないよう、データガバナンスやプライバシーガバナンスで掲げられるデータ利活用時におけるガバナンスも重要になります。特にAIの活用が進展してくると前述したように自組織のみに限らず、不特定多数のステークホルダーとの共創を伴ったり、サプライチェーン全体を巻き込んだりするケースも想定されます。

そのためにも、経営層はどのようなAIガバナンスを構築すべきか、自組織が置かれている状況を把握することがまず重要です。すなわち、AIを活用していく上で、創造するビジネスの正負のインパクトを把握することです。その上で、正負のインパクトにおけるステークホルダーの許容水準がどこにあるのかを見定めるためのコミュニケーションと自組織のAIガバナンス・ゴールを段階的に定めることが重要になります。

また、管理者は設定されたAIガバナンス・ゴールからの乖離の評価(Gap Analysis)について対応していくとともに、現場から訴求されたAI開発における環境や関与すべき社内外のステークホルダーへの影響や潜在的なものも含めた期待を踏まえて、経営者へ適切にエスカレーションしていくことが必要になります。例えば、課題が単純なソリューションであれば、必要なデータや環境が揃っていて、作業する人がいれば事足りるかもしれません。場合によっては、既存業務の判断の一部をAIシステムで代替できるかもしれません。一方で、事業単位・全社単位または業界横断や社会における課題を解決していく複合的なサービスや業務プロセスそのものを大きく変革していくような組織的なゴール設定をした場合は、必要なデータや環境および関連するステークホルダーは大きく変わってきます。

特にサービスの設計次第では、AIに人の代わりに判断を委ねた場合は、AIが自己成長していく特性も相まって、その判断の透明性や説明責任を果たすことが重要になってきます。経営者は、組織としてAIを用いた際に「人間中心のAI社会原則」を考慮して、何をどこまで実現するのか、その結果社会に与えるインパクトは何かを、消費者、政府、ビジネスパートナー、サードパーティ等のステークホルダーの立場から認識する必要があります。

そのためにも、単に個々のAIシステムのモデルに着目するだけではなく、ステークホルダーとの接点となり得るインプット・アウトプットとなるデータから関係するプロセス、システム群や人・組織(システム・オブ・システムズ)を設計のうえ、その機能ぶりを監視するガバナンスを構築していくことが必要になります。よって、ゴール設定から評価の当該サイクルをアジャイルで繰り返して習熟し、環境変化とリスクを再分析しながら組織のゴール設定を成長させていくこと(図表3)に経営層自らが戦略的に意思決定することが求められます。

図表3 AIガバナンス構築のためのサイクル

AI原則は明らかになってきているものの、企業レベルでの取り組みへの落とし込みについては大きな課題となっていることを踏まえて、PwCあらたでは、まずは現状課題を迅速に把握・整理し、対応方針の検討材料とするためのAIガバナンス診断サービスを用意しています。経済産業省から公表された「AI原則実践のためのガバナンス・ガイドライン ver.1.0」の内容を参考に、PwCグローバルネットワークとPwC あらたの知見を加えた診断項目を作成し、企業のAIガバナンスの習熟度を項目ごとに診断します(図表4)。

図表4 AIガバナンス診断:評価スケールの定義

先に提供を開始した「データガバナンス診断ツール」と併用すれば、AIサービスのサプライチェーンワイドの診断も可能になります。また、診断に加え、診断後のロードマップ策定とガバナンス態勢やマネジメントプロセスの構築支援も併せて提供します。PwCあらたは、AI、DX、データのガバナンス構築の豊富な支援実績と、PwC Japanグループの知見を活かし、経済産業省のガイドラインなどを参考にAIガバナンスの構築や強化を行う企業の支援により一層力を注ぎ、人間中心のAI社会の実現に向けて貢献してまいります。


※1 経済産業省「デジタルガバナンス・コード」、2020年11月9日
https://www.meti.go.jp/shingikai/mono_info_service/dgs5/pdf/20201109_01.pdf

※2 経済産業省「DX認定制度の概要及び申請のポイントについて」2021年8月6日
https://www.meti.go.jp/policy/it_policy/investment/dx-nintei/0806_dx-certifi
cation_point.pdf

※3 PwC Japanグループ「PwCあらた、経済産業省が定めるDX認定制度で認定され、 企業のDX認定対応支援を本格化」2021年8月12日
https://www.pwc.com/jp/ja/press-room/dx-certification210812.html

※4 PwC Japanグループ「「DX認定」対応支援」
https://www.pwc.com/jp/ja/services/assurance/process-system-organization-datamanagement/risk-governance-advisory/dx-governance/dx-recognition-support.html

※5 経済産業省「「DX銘柄2021」「DX注目企業2021」を選定しました!」2021年6月7日
https://www.meti.go.jp/press/2021/06/20210607003/20210607003.html

※6 財務省「令和3年度税制改正 3法人課税」2021年3月https://www.mof.go.jp/tax_policy/publication/brochure/zeisei21/03.htm#a01

※7 PwC Japanグループ「PwC Japan、DX投資促進税制をはじめとする 企業のDXと関
連税制対応への本格的サポートを開始」2021年5月10日
https://www.pwc.com/jp/ja/press-room/dx-investment-promotion-tax-system-sup
port210510.html


執筆者

村永 淳

PwCあらた有限責任監査法人
ガバナンス・リスク・コンプライアンス・アドバイザリー部
パートナー 村永 淳

宮村 和谷

PwCあらた有限責任監査法人
システム・プロセス・アシュアランス部
パートナー 宮村 和谷

鮫島 洋一

PwCあらた有限責任監査法人
システム・プロセス・アシュアランス部
マネージャー 鮫島 洋一