AIガバナンス

さまざまな業界や領域においてAI/生成AIの利活用を促進する企業に対し、データプライバシーやセキュリティへ配慮したうえで信頼性・公平性を担保し、マルチステークホルダーへの説明責任を果たすAIガバナンス態勢を構築することを包括的に支援します。

AIガバナンスとは

AIガバナンスとは、AI/生成AIを活用したシステムやサービスにおいて発生するリスクを、ステークホルダーにとって受容可能なレベルで適切に管理しながら、そこからもたらされる有益性を最大化する管理体制やその運用などを指します。 

AI/生成AIの利活用が進むとともに、それらが原因とされるインシデントも世界的に増加傾向にあります。AIの意思決定による倫理違反、人種や性別などによる差別的バイアスや公平性の欠如、プライバシーやセキュリティの侵害といったリスクを回避するため、透明性や説明可能性、追跡可能性を考慮し、ガイドラインや体制の整備、教育・リテラシーの向上、モニタリングや監査を含めたAIの適正な利活用を担保していくことが求められています。

AI活用推進に伴い増加するインシデントとリスクに対する各国の状況

AIの活用は、世界中のあらゆる業界で広がっています。その流れは、生成AIの台頭によりますます顕著になっています。PwC Japanグループが2024年6月に公表した「生成AIに関する実態調査2024春」によると、「社内で生成AIを活用中」または「社外に生成AIサービスを提供中」と回答した企業は前回調査(2023年10月)から9ポイント上昇し、およそ半数の67%にのぼっています。「生成AIサービスを検討中」を含めると91%となり、もはやAI/生成AIを活用しなければ、競争力の低下につながるといっても過言ではありません。

一方で、AI/生成AIが原因のインシデントも世界的に増加傾向にあります。AIの意思決定による倫理違反、人種や性別などによる差別的バイアスや公平性の欠如、プライバシーやセキュリティの侵害のほか、特に最近ではディープフェイクやハルシネーションに代表される偽情報や誤情報に関連するインシデントが注目を集めています。AI/生成AIの利活用に注力するあまり、AIガバナンスがおろそかになり、インシデントが発生してしまうと企業のレピュテーションが低下し、サービスの停止やユーザーの離反、株価の下落をも招いてしまう可能性があります。そのため、AI/生成AIを利活用する企業においては、これらのリスクを回避するための取り組みは不可欠です。
また、AIによる複雑な意思決定の中には、その過程がブラックボックスになりやすいものあるため、説明責任(アカウンタビリティ)を果たす必要があります。そのためにも、透明性や説明可能性、追跡可能性を考慮したガイドラインや体制の整備、教育・リテラシーの向上のほか、モニタリングや監査を含めた適正なAIの利活用を担保するAIガバナンスの構築が求められます。

AIリスクのコントロールを実現するため、国際機関や各国政府は、リスク管理に関するさまざまな枠組みの検討を進めています。2024年5月、EUでは世界初となる、生成AIを含む包括的なAIの規制である「欧州(EU)AI規制法」が成立しました。日本では2024年4月に総務省・経済産業省が、AI事業者によるAIの安全安心な活用促進を目的に「AI事業者ガイドライン(第1.0版)」*1を公開しました。このような状況下において、AI/生成AIを利活用する企業がAIリスクへの対策を適切に講じているのか、ユーザーやステークホルダーからの関心や期待がますます高まっていることに疑いの余地はありません。

*1:同ガイドラインの策定にあたっては、PwC Japan有限責任監査法人でデジタル化のガバナンスなどを担当するパートナーの宮村和谷が検討会に有識者として参画しました。

AIリスクの種類とAIガバナンスの整備がもたらすベネフィット

企業はAI/生成AIの利活用にリスクが伴うことを改めて認識する必要があります。

AIガバナンスは、企業のAI/生成AI利活用推進をAI固有の観点を踏まえて下支えし、達成すべきゴールの実現と投資対効果の最大化をサポートする仕組みです。AIガバナンスの実現に向けては、AI/生成AIの利活用に関わる「安全性リスク」「制御リスク」「社会的リスク」「経済リスク」「倫理リスク」「性能リスク」の6つを軸に幅広くAIリスクを特定し、コントロールする必要があります。

AIガバナンスを整備することは、AIリスクをコントロールする以外にも、企業にとってさまざまなメリットをもたらします。AIガバナンスの整備を通じて、AIの開発効率や運用性の向上だけでなく、AI領域の人材確保、企業イメージの向上、それに伴う顧客獲得による収益増加といった、企業活動全体への波及効果を見込むことができます。

AIガバナンス構築支援サービス

PwCのAIガバナンス構築支援サービスは、AI/生成AIの利活用を推進する企業に対して、さまざまなAIリスクに対応したAIガバナンス態勢の構築を包括的に支援するものです。世界各地のPwCネットワークのメンバーファームが手掛けてきた豊富なAIリスク対応支援実績をベースに開発された同サービスは7つのテーマにより構成されています。これをクライアント企業の状況に合わせてカスタマイズし、現状の診断からガイドラインや体制の整備、MLOpsなどのツール導入、AIリテラシーの向上、教育コンテンツの整備まで一貫した支援を提供します。

また、事業部門などのリスク管理の第1線だけでなく、コンプライアンス部門や内部監査部門などの第2線、第3線への支援も行います。「AIを導入する企業」と「AIを提供するベンダー」という関係ではなく、第三者としての立場から客観的な評価に基づいて支援を提供できる点もPwCの強みです。

各支援領域のソリューション

AI活用・AIガバナンス状況の現状把握

AI/生成AIの利活用ケースに存在するAIリスクとリスクレベルを判定し、現状のコントロール状況を明らかにします。特にグローバルに事業を展開している企業は、対象国のガイドラインや法令などを考慮した分析を行うことが重要となります。

成果物例:AIガバナンス診断結果

関連サービス

Responsible AI診断(AIリスクのコントロール状況評価)

AIガバナンスポリシー・ガイドラインの策定

AIリスクレベルに応じてコントロール策を検討したうえで、ガイドラインを策定・展開し、AI/生成AI利用におけるルールの周知・徹底を推進します。外部への公開が求められる場合は、AIガバナンスガイドラインと整合したAI倫理ポリシーを策定します。

成果物例:AIガバナンスガイドライン、AI倫理ポリシー

関連サービス

Responsible AI戦略策定(AIリスクコントロールのための戦略の検討)

AIガバナンス実施体制の構築

事業部門とリスク管理部門の役割と責任を明確にします。必要に応じて、外部有識者を含めたAI倫理委員会の設立やAIガバナンス広報戦略など、組織体制および実行のためのプロセスを構築します。

成果物例:AI倫理委員会、広報戦略

Responsible AI態勢構築(実行プロセスの構築)

モニタリングプロセス策定/モニタリングツールの導入

AIリスクレベルに応じたコントロール策が順守できるよう、リスク管理部門によるレビュープロセスの整備やチェックシートの作成などをサポートします。強固なガバナンスを実現したい場合や、AIの品質をリアルタイムで測定したい場合などは、MLOpsなどの技術的ツールの導入を支援します。

成果物例:AIレビュープロセス、AIリスクチェックシート

対策ツール導入 (個別のAIリスクに対応するための支援)

AIガバナンス 人材育成

AI人材の育成を支援してきたノウハウを活かし、責任あるAIの利活用実現に向けて、AI人材に必要とされるスキルの棚卸から、それを達成するための社内人材育成に関する計画の策定、教育プログラムの実行まで支援します。

成果物例:人材育成プログラム

MLO㎰導入 (機械学習の開発・運用チーム/プロセスの構築)

開発/運用プロセスの改善

AIガバナンス自体にも形骸化のリスクが伴うため、AIリスク評価やチェックシート、教育プログラムなどの見直しを行います。今後も継続的にアップデートするように社内の仕組みとして整備し、文化としての定着を支援します。

成果物例:AIガバナンス見直し方針

Responsible AI教育(責任あるAIの利活用実現に向けた教育)

AIレッドチーム

PwCコンサルティングのAIレッドチームは、AIを利用したサービスに対して、リスク起因者(サイバー攻撃者、犯罪者、愉快犯など)の観点から疑似攻撃を行うことで、脆弱性とそれに伴うビジネスリスクを特定し、その改善のためのアドバイスを提供します。サービスのリリース前・運用中に実施することで、実際にインシデントが発生する前にビジネスリスクを特定し、クライアントが能動的に対策を講じることを支援します。

詳細はこちら

AIガバナンスロードマップ策定支援サービス

AIガバナンスの構築には、画一的なアプローチや、どこまでやればよいという統一的な見解があるわけではありません。AI/生成AIの利活用状況や今後の予定、AIに限らない社内のリスク管理態勢など、さまざまな要素を加味してあるべき姿を定義し、それを実現するためのロードマップを策定していくことが重要となります。特に、セキュリティやプライバシー、法令など、AIリスクは他のリスクテーマと密接にかかわっているため、AIガバナンスを個別最適で進めるのではなく、ガバナンス横断での全体最適を実現する必要があります。

PwCではAIリスクのほか、セキュリティやプライバシーなどを専門とする多様なプロフェッショナルが協働することで、リスクテーマ間で整合性が取れたAIガバナンス態勢の構築を支援します。

AIガバナンス診断サービス

AI原則は次第に明らかになってきているものの、企業レベルでの取り組みに落とし込むにあたっては大きな課題があります。

経済産業省は人間中心のAI社会原則を実装するに際しては、細かな行為義務を示すルールベースの規則ではなく、最終的に達成されるべき価値を示すゴールベースの規則を策定すべきとの考えをまとめました。目指すべき姿と現状のオペレーションとの間のギャップを埋めるために策定されたのが「AI原則実践のためのガバナンス・ガイドラインver. 1.1」であり、その考えは、2024年4月に公開された「AI事業者ガイドライン(第1.0版)」に継承されています。

PwCでは、現状を迅速に把握・整理し、対応方針の検討材料とすべく、AI事業者ガイドライン(第1.0版)の内容を踏まえ、PwCグローバルネットワークの知見を活かしてチェック項目を作成し、企業のAIガバナンスの習熟度を診断します。

生成AIを巡る米欧中の規制動向最前線

対話型生成AIが注目を集めており、社会的に大きなインパクトをもたらすことが期待されています。しかし、グローバル企業が生成AIを業務で安全に活用するためには、海外のAI法規制を理解し、生成AIの社内ルールを作成する必要があります。本シリーズは、主にグローバル展開している企業のIT、サイバーセキュリティ、法務部門の責任者に向けて、生成AIのリスクや海外法規制についてご紹介します。

詳細はこちら

image a

主要メンバー

平岩 久人

パートナー, PwC Japan有限責任監査法人

Email

宮村 和谷

パートナー, PwC Japan有限責任監査法人

Email

田中 洋範

パートナー, PwC Japan有限責任監査法人

Email

橋本 哲哉

ディレクター, PwCコンサルティング合同会社

Email

澤田 賢

ディレクター, PwC Japan有限責任監査法人

Email

本ページに関するお問い合わせ