AIガバナンス導入支援

さまざまな領域でAIの開発や利活用を進める企業を対象に、公平かつ安全なAI活用に向けたガバナンス態勢の構築を包括的に支援します。

AI活用推進に伴うAIインシデントと競争優位性

AIの活用は、世界中であらゆる業界へと広がっています。PwC Japanグループが実施した調査「2022年AI予測(日本)」によると、日本企業においてもここ数年でAI活用の明確な進展が見られ、AIを業務に導入している企業の割合は2022年には58%(前年比15ポイント増)にのぼっています。

それと同時に、AIが原因となったインシデントも世界的に増加傾向にあり、AIの意思決定による倫理違反、人種や性別などによる差別的バイアスや公平性の欠如、プライバシーやセキュリティの侵害といったリスクを回避するための取り組みが不可欠となっています。また、AIによる複雑な意思決定の中には、その過程がブラックボックスになりやすいものあるため、説明責任(アカウンタビリティ)を果たす必要があります。そのためにも、透明性、説明可能性や追跡可能性を考慮し、教育・リテラシーやモニタリング・監査も含めた適正な利用を担保していくことが求められています。

なお、AIの利活用を推進し、国際競争力や企業間における競争優位性を確保するためにはAI倫理だけでなく、AIと学習データの質(適正な学習)といったAIの性能そのものを担保することや、AI同士の連携も視野に入れて取り組むことが不可欠となります。

AIリスクに対する各国の対応

AIリスクのコントロール実現に向けたルールとしては、主に以下の3つがあります。

  • OECD(経済協力開発機構)やGPAI(Global Partnership on AI)などの国際機関や各国政府が取りまとめた原理原則
  • 各国政府が定める中間的ルール
  • 企業ごとに自主的に取り組む企業ルール

欧米では、2021年にEU(欧州連合)がリスクベースのAI規制の枠組案を提示し、米国のFTC(連邦取引委員会)がAI規制による摘発を開始するなど、法規制の強化が進んでいます。

日本でも、経済産業省が「AI原則実践のためのガバナンス・ガイドラインver1.1」(以下、「AIガバナンス・ガイドライン」)を公表し、AI活用企業が実施すべき行動目標や、ゴールとの乖離を評価する実務的な対応例が示されました。そして政府は企業に対し、リスクベースのアプローチによるAIガバナンス態勢構築の検討を求めています。

主な指針・規制・ガイドライン▼

 

日本

米国

欧州

原理原則

  • 人間中心のAI社会原則(内閣府)
  • 我が国のAIガバナンスの在り方(経済産業省)
  • AI規制に係るガイダンス
  • AIに係る権利の章典(OSTP)
  • AI指針(Artificial Intelligence for Europe)
  • AIのガバナンスと倫理のイニシアティブ(シンガポール)
  • 北京AI原則/次世代AIガバナンス原則(中国)
  • AI国家戦略(ドイツ)

各国政府が定める中間ルール

  • AI原則実践のためのガバナンス・ガイドライン(経済産業省)
  • AI・データの利用に関する契約ガイドライン(経済産業省)
  • 農業分野におけるAI・データに関する契約ガイドライン(農林水産省)
  • 機械学習品質マネジメントガイドライン(経済産業省)
  • AI利活用ガイドライン(総務省)
  • AI利活用ハンドブック(消費者庁)
  • 自動運転車の安全技術ガイドライン(国土交通省)
  • 大学・高専におけるAI教育に関する認定制度(文部科学省、経済産業省)
  • プラント保守分野AI信頼性評価ガイドライン(消防庁、厚生労働省、経済産業省)
  • 人口知能を用いた診断、治療等の支援を行うプログラムの利用と医師法第17条の関係について(厚生労働省)
  • 人工知能技術を利用した医用画像技術支援システムに関する評価指標(厚生労働省)
  • 医療機器の特性に応じた承認制度の導入(厚生労働省)
  • 医用画像診断支援システム開発ガイドライン(経済産業省)
  • ビジネス向けのAIアルゴリズム利用に係るガイダンス(FTC)
  • AI倫理ガイドライン(DOD)
  • AIリスクマネジメント枠組み(NIST)
  • AI法案(Proposal for a Regulation laying down harmonised rules on Artificial intelligence)
  • モデルAIガバナンスフレームワーク(シンガポール)
  • 信頼できる人口知能についての白書(中国)

AIガバナンスの整備がもたらすベネフィット

AIガバナンスにはリスクのコントロールという観点以外にも、実施することで企業にさまざまなベネフィットをもたらすという側面もあります。AIガバナンスの整備を通じて、AIの開発効率や運用性の向上だけでなく、AI領域の人材確保や企業イメージの向上、さらには企業イメージ向上に伴う顧客獲得による収益増加といった、企業活動全体への波及効果を見込むことができます。

AIリスクの種類とAIライフサイクル

こうした状況のもと、企業はAIの開発や利活用にリスクが伴うことを十分に理解し、AIの信頼性と説明可能性を担保しなくてはなりません。

AIガバナンスは、企業のAI活用推進をAI固有の観点を踏まえて下支えし、達成すべきゴールの実現と投資対効果の最大化をサポートする取り組みです。AIガバナンスの実現に向けて、AIの開発および利活用に関わる「安全性リスク」「制御リスク」「社会的リスク」「経済リスク」「倫理リスク」「性能リスク」の6つを軸に幅広くAIリスクを特定し、コントロールする必要があります。

PwCでは、AIガバナンス・ガイドラインと同様のリスクベースアプローチに基づき、企業の組織上の課題から個別のユースケースにおける課題まで、ガバナンスゴール実現の妨げとなるボトルネックを抽出し、それぞれの状況に合わせたアプローチで解決を支援します。

AIリスクの種類と AIライフサイクル

PwCのAIライフサイクルフレームワーク

PwCは、AIライフサイクルを「1.Strategy」「2.Planning」「3.Ecosystem」「4.Development」「5.Deployment」「6.Monitor & Report」の6つのフェーズに分解し、それぞれのステージに係るリスクを網羅的に把握する独自のフレームワークを活用しています。

PwCの AIライフサイクルフレームワーク

AIガバナンス導入支援サービス

PwCのAIガバナンス導入支援サービスは、AIの開発や利活用を推進する企業を対象に、さまざまなAIリスクに対応したガバナンス体制の構築を包括的に支援するものです。日本を含む世界各地を拠点とするPwCネットワークのメンバーファームが手掛けた豊富なAIリスク対応支援実績をベースに開発された同サービスは、6つの領域から構成されています。これをクライアント企業の状況に合わせてカスタマイズし、現状の診断から対策ツール導入、MLOps導入、教育まで一貫した支援を提供します。

また、事業部門などのリスク管理の第1線だけでなく、コンプライアンス部門や内部監査部門など第2線、第3線への支援も行います。「AIを導入する企業」と「ベンダー」の関係ではなく、第三者の立場から客観的な評価に基づいた支援を提供できる点もPwCの強みです。

各支援領域のソリューション

AIガバナンス診断(AIリスクのコントロール状況評価)

AIライフサイクル上に存在するAIリスクの認識レベルとコントロール状況を明らかにし、解決の方向性を示すことで、企業のAI活用に伴うリスクマネジメントの高度化に向けた第三者視点での評価を実施します。診断により、AI開発に伴う投資対効果の最大化やリスクの最小化をサポートします。

成果物例:AIガバナンス診断結果

Responsible AI診断(AIリスクのコントロール状況評価)

AIガバナンス戦略策定(AIリスクコントロールのための戦略の検討)

リスクシナリオにおけるリスク要因ごとに、リスクコントロール例の提示や各シナリオの論点化と方針策定を行い、策定した方針の実行に向けてAIリスクコントロールのためのロードマップを策定します。

成果物例:リスクコントロール方針

Responsible AI戦略策定(AIリスクコントロールのための戦略の検討)

AIガバナンス態勢構築(実行プロセスの構築)

AIガバナンス態勢の状況に応じて、外部有識者を含めたAI倫理委員会の設立やAIガバナンス広報戦略など、組織体制および実行のためのプロセスの構築を支援します。

成果物例:AI倫理委員会、広報戦略

Responsible AI態勢構築(実行プロセスの構築)

対策ツール導入(個別のAIリスクに対応するための支援)

各AIシステムに対して、説明可能性やバイアス、公平性など、対策が必要なリスク領域に個別に対応するためのAI運用支援や技術支援を行います。

成果物例:AIリスク対策ツール

対策ツール導入 (個別のAIリスクに対応するための支援)

MLO㎰導入(機械学習の開発・運用チーム/プロセスの構築)

機械学習モデルの標準開発プロセスの設計やアウトソーシングの管理を通じ、機械学習アプリケーションの本格開発・運用を支援します。

成果物例:機械学習モデルの標準開発プロセス

MLO㎰導入 (機械学習の開発・運用チーム/プロセスの構築)

AIガバナンス教育(責任あるAIの利活用実現に向けた教育)

AI人材育成支援のノウハウを活かし、責任あるAIの利活用実現に向けて、社内人材育成に関する計画策定から教育プログラムの実践までを支援します。

成果物例:人材育成プログラム

Responsible AI教育(責任あるAIの利活用実現に向けた教育)

AIガバナンス診断サービス

AI原則は時間が経つにつれて明らかになってきているものの、企業レベルでの取り組みに落とし込むにあたっては大きな課題があります。

経済産業省は人間中心のAI社会原則の実装に際しては、社会の変化の速さやその複雑さに法律が追い付いていないという問題を克服するため、細かな行為義務を示すルールベースの規則ではなく、最終的に達成されるべき価値を示すゴールベースの規則を策定すべきとの考えをまとめました。そして、目指すべき姿と現状のオペレーションとの間のギャップを埋めるために策定されたのが「AI原則実践のためのガバナンス・ガイドライン ver. 1.1」*1です。

PwCでは、まずは現状を迅速に把握・整理し、対応方針の検討材料とすべく、本ガイドラインの内容を参考に、PwC JapanおよびPwCグローバルネットワークの知見を加えたチェック項目を作成し、企業のAIガバナンスの習熟度を診断します。

*1:同ガイドラインの策定にあたっては、PwCあらた有限責任監査法人でデジタル化のガバナンスなどを担当するパートナーの宮村和谷が検討会およびドラフティングワーキンググループに有識者として参画しました。

AIの社会実装に向けて、ベストプラクティスを参考にAIガバナンスを実践する

日本企業が取り組むべきAIガバナンスのあり方について、経済産業省 泉卓也氏とPwCコンサルティング合同会社のパートナー 藤川琢哉、PwCあらた有限責任監査法人のパートナー 宮村和谷が語り合いました。

記事はこちら

AIの社会実装に向けて、 ベストプラクティスを参考にAIガバナンスを実践する

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

主要メンバー

平岩 久人

パートナー, PwCあらた有限責任監査法人

Email

宮村 和谷

パートナー, PwCあらた有限責任監査法人

Email

藤川 琢哉

パートナー, PwCコンサルティング合同会社

Email

鮫島 洋一

マネージャー, PwCあらた有限責任監査法人

Email

本田 怜

マネージャー, PwCコンサルティング合同会社

Email

深澤 桃子

マネージャー, PwCコンサルティング合同会社

Email