{{item.title}}
{{item.thumbnailText}}
{{item.title}}
{{item.thumbnailText}}
さまざまな領域でAIの開発や利活用を進める企業を対象に、公平かつ安全な「責任あるAI」活用のためのガバナンス態勢構築を包括的に支援します。
AIの活用は、世界中であらゆる業界へと広がっています。PwC Japanグループの2021年AI予測によると、日本企業においてもここ数年でAI活用の確実な進展が見られ、AIを業務に導入している企業の割合は2021年には43%と、2020年の27%から16ポイントも増加しています。
それと同時に、AIが原因となったインシデントも世界的に増加傾向にあり、AIの意思決定によるさまざまなインシデントや倫理違反、人種や性別などによる差別的バイアス、プライバシーの侵害といったリスクを回避するための取り組みが不可欠となっています。
AIリスクのコントロール実現に向けたルールとして、主に以下の3つがあります。
欧米では、2021年にEU(欧州連合)がリスクベースのAI規制の枠組案を提示し、米国のFTC(連邦取引委員会)がAI規制による摘発を開始するなど、法規制の強化が進んでいます。
日本でも、経済産業省により公表された「AI原則実践のためのガバナンス・ガイドラインver1.0」(以下、「AIガバナンス・ガイドライン」)において、AI 活用企業が実施すべき行動目標と、ゴールとの乖離を評価する実務的な対応例が示されました。政府は企業に対し、リスクベースのアプローチによるAIガバナンス態勢の検討を求めています。
こうした状況のもと、企業はAIの開発や利活用にリスクが伴うことを十分に理解し、AIの信頼性と説明可能性を担保しなくてはなりません。
Responsible AI(責任あるAI)は、企業のAI活用推進を「守り」の観点から下支えし、達成すべきゴールの実現と投資対効果の最大化をサポートする取り組みです。Responsible AIの実現に向けて、AIの開発および利活用に関わる「安全性リスク」「制御リスク」「社会的リスク」「経済リスク」「倫理リスク」「性能リスク」の6つのリスクを軸として幅広くAIリスクを特定し、コントロールする必要があります。
PwCコンサルティング合同会社では、AIガバナンス・ガイドラインと同様のリスクベースアプローチに基づき、企業の組織上の課題から個別のユースケース別課題まで、ガバナンスゴール実現の妨げとなるボトルネックを抽出し、それぞれの状況に合わせたアプローチで解決を支援します。
PwCは、AIライフサイクルを「1.Strategy」「2.Planning」「3. Ecosystem」「4.Development」「5.Deployment」「6.Monitor & Report」の6つのフェーズに分解し、それぞれのステージに係るリスクを網羅的に把握する独自のフレームワークを活用しています。
PwCコンサルティングのResponsible AI導入支援サービスは、AIの開発や利活用を推進する企業を対象に、さまざまなAIリスクに対応したガバナンス体制の構築を包括的に支援するものです。日本を含む世界各国のPwCオフィスが手掛けた豊富なAIリスク対応支援実績をベースに開発された同サービスは、6つの領域から構成されています。これを企業の状況に合わせてカスタマイズし、現状の診断から対策ツール導入、MLOps導入、教育まで、一貫した支援を提供します。
また、PwCあらた有限責任監査法人とも連携し、事業部門などのリスク管理の第1線だけでなく、コンプライアンス部門や内部監査部門など第2線、第3線への支援も行います。「AIを導入する企業」と「ベンダー」の関係ではなく、第三者の立場から客観的な評価に基づいた支援を提供できる点も私たちの強みです。
AIライフサイクル上に存在するAIリスクの認識レベルとコントロール状況を明らかにし、解決の方向性を示すことで、企業のAI活用に伴うリスクマネジメントの高度化に向けた第三者視点での評価を実施します。診断により、AI開発に伴う投資対効果の最大化やリスクの最小化をサポートします。
成果物例:Responsible AI診断結果
リスクシナリオにおけるリスク要因ごとに、リスクコントロール例の提示や各シナリオの論点化と方針策定を行い、策定した方針の実行に向けてAIリスクコントロールのためのロードマップを策定します。
成果物例:リスクコントロール方針
AIガバナンス態勢の状況に応じて、外部有識者を含めたAI倫理委員会の設立やAIガバナンス広報戦略など、組織体制および実行のためのプロセスの構築を支援します。
成果物例:AI倫理委員会、広報戦略
各AIシステムに対して、説明可能性やバイアス、公平性など、対策が必要なリスク領域に個別に対応するためのAI運用支援や技術支援を行います。
成果物例:AIリスク対策ツール
機械学習モデルの標準開発プロセスの設計やアウトソーシングの管理を通じ、機械学習アプリケーションの本格開発・運用を支援します。
成果物例:機械学習モデルの標準開発プロセス
AI人材育成支援のノウハウを活かし、責任あるAIの利活用実現に向けて、社内人材育成に関する計画策定から教育プログラムの実践までを支援します。
成果物例:人材育成プログラム
日本企業が取り組むべきAIガバナンスのあり方について、経済産業省 泉卓也氏とPwCコンサルティング合同会社のパートナー 藤川琢哉、PwCあらた有限責任監査法人のパートナー 宮村和谷が語り合いました。
AIが秘めた大きな可能性の裏にはブランドを毀損する大きなリスクが存在します。PwCはガバナンスと規制の遵守を、倫理的かつ説明可能な形を担保しながらAIを活用する支援をします。
AIの導入・利活用におけるガバナンス構築・リスク評価支援サービスを提供します。
人工知能(AI)技術の開発やAIを活用した製品・サービスの展開が各国で進む中、差別的な利用やプライバシーの侵害といったリスクを回避するための仕組みづくりが求められています。各国・地域におけるAIガバナンスなどに係るルールの動向と、PwCが考えるAIガバナンスの在り方を紹介します。
正しく活用すればAIは社会に大きな恩恵をもたらし得ます。PwCは、市民が最大限の利益を得ることができるよう、政府への適切な意思決定支援を行います。