Skip to content Skip to footer
Search

Loading Results

Responsible AI 導入支援

さまざまな領域でAIの開発や利活用を進める企業を対象に、公平かつ安全な「責任あるAI」活用のためのガバナンス態勢構築を包括的に支援します。

企業のAI活用推進に伴うAIインシデント

AIの活用は、世界中であらゆる業界へと広がっています。PwC Japanグループの2021年AI予測によると、日本企業においてもここ数年でAI活用の確実な進展が見られ、AIを業務に導入している企業の割合は2021年には43%と、2020年の27%から16ポイントも増加しています。

それと同時に、AIが原因となったインシデントも世界的に増加傾向にあり、AIの意思決定によるさまざまなインシデントや倫理違反、人種や性別などによる差別的バイアス、プライバシーの侵害といったリスクを回避するための取り組みが不可欠となっています。

AIリスクに対する各国の規制への動き

AIリスクのコントロール実現に向けたルールとして、主に以下の3つがあります。

  • OECD(経済協力開発機構)やGPAI(Global Partnership on AI)などの国際機関や各国政府が取りまとめた原理原則
  • 各国政府が定める中間的ルール
  • 企業ごとの自主的な取り組みとなる企業ルール

欧米では、2021年にEU(欧州連合)がリスクベースのAI規制の枠組案を提示し、米国のFTC(連邦取引委員会)がAI規制による摘発を開始するなど、法規制の強化が進んでいます。

日本でも、経済産業省により公表された「AI原則実践のためのガバナンス・ガイドラインver1.0」(以下、「AIガバナンス・ガイドライン」)において、AI 活用企業が実施すべき行動目標と、ゴールとの乖離を評価する実務的な対応例が示されました。政府は企業に対し、リスクベースのアプローチによるAIガバナンス態勢の検討を求めています。

企業のAI活用推進に伴う AIインシデント

AIリスクの種類とAIライフサイクル

こうした状況のもと、企業はAIの開発や利活用にリスクが伴うことを十分に理解し、AIの信頼性と説明可能性を担保しなくてはなりません。

Responsible AI(責任あるAI)は、企業のAI活用推進を「守り」の観点から下支えし、達成すべきゴールの実現と投資対効果の最大化をサポートする取り組みです。Responsible AIの実現に向けて、AIの開発および利活用に関わる「安全性リスク」「制御リスク」「社会的リスク」「経済リスク」「倫理リスク」「性能リスク」の6つのリスクを軸として幅広くAIリスクを特定し、コントロールする必要があります。

PwCコンサルティング合同会社では、AIガバナンス・ガイドラインと同様のリスクベースアプローチに基づき、企業の組織上の課題から個別のユースケース別課題まで、ガバナンスゴール実現の妨げとなるボトルネックを抽出し、それぞれの状況に合わせたアプローチで解決を支援します。

AIリスクの種類と AIライフサイクル

PwCのAIライフサイクルフレームワーク

PwCは、AIライフサイクルを「1.Strategy」「2.Planning」「3. Ecosystem」「4.Development」「5.Deployment」「6.Monitor & Report」の6つのフェーズに分解し、それぞれのステージに係るリスクを網羅的に把握する独自のフレームワークを活用しています。

PwCの AIライフサイクルフレームワーク

Responsible AI 導入支援サービス

PwCコンサルティングのResponsible AI導入支援サービスは、AIの開発や利活用を推進する企業を対象に、さまざまなAIリスクに対応したガバナンス体制の構築を包括的に支援するものです。日本を含む世界各国のPwCオフィスが手掛けた豊富なAIリスク対応支援実績をベースに開発された同サービスは、6つの領域から構成されています。これを企業の状況に合わせてカスタマイズし、現状の診断から対策ツール導入、MLOps導入、教育まで、一貫した支援を提供します。

また、PwCあらた有限責任監査法人とも連携し、事業部門などのリスク管理の第1線だけでなく、コンプライアンス部門や内部監査部門など第2線、第3線への支援も行います。「AIを導入する企業」と「ベンダー」の関係ではなく、第三者の立場から客観的な評価に基づいた支援を提供できる点も私たちの強みです。

Responsible AI 導入支援サービス

各支援領域のソリューション

Responsible AI診断(AIリスクのコントロール状況評価)

AIライフサイクル上に存在するAIリスクの認識レベルとコントロール状況を明らかにし、解決の方向性を示すことで、企業のAI活用に伴うリスクマネジメントの高度化に向けた第三者視点での評価を実施します。診断により、AI開発に伴う投資対効果の最大化やリスクの最小化をサポートします。

成果物例:Responsible AI診断結果

Responsible AI診断(AIリスクのコントロール状況評価)

Responsible AI戦略策定(AIリスクコントロールのための戦略の検討)

リスクシナリオにおけるリスク要因ごとに、リスクコントロール例の提示や各シナリオの論点化と方針策定を行い、策定した方針の実行に向けてAIリスクコントロールのためのロードマップを策定します。

成果物例:リスクコントロール方針

Responsible AI戦略策定(AIリスクコントロールのための戦略の検討)

Responsible AI態勢構築(実行プロセスの構築)

AIガバナンス態勢の状況に応じて、外部有識者を含めたAI倫理委員会の設立やAIガバナンス広報戦略など、組織体制および実行のためのプロセスの構築を支援します。

成果物例:AI倫理委員会、広報戦略

Responsible AI態勢構築(実行プロセスの構築)

対策ツール導入(個別のAIリスクに対応するための支援)

各AIシステムに対して、説明可能性やバイアス、公平性など、対策が必要なリスク領域に個別に対応するためのAI運用支援や技術支援を行います。

成果物例:AIリスク対策ツール

対策ツール導入 (個別のAIリスクに対応するための支援)

MLO㎰導入(機械学習の開発・運用チーム/プロセスの構築)

機械学習モデルの標準開発プロセスの設計やアウトソーシングの管理を通じ、機械学習アプリケーションの本格開発・運用を支援します。

成果物例:機械学習モデルの標準開発プロセス

MLO㎰導入 (機械学習の開発・運用チーム/プロセスの構築)

Responsible AI教育(責任あるAIの利活用実現に向けた教育)

AI人材育成支援のノウハウを活かし、責任あるAIの利活用実現に向けて、社内人材育成に関する計画策定から教育プログラムの実践までを支援します。

成果物例:人材育成プログラム

Responsible AI教育(責任あるAIの利活用実現に向けた教育)

{{filterContent.facetedTitle}}

AIの社会実装に向けて、ベストプラクティスを参考にAIガバナンスを実践する

日本企業が取り組むべきAIガバナンスのあり方について、経済産業省 泉卓也氏とPwCコンサルティング合同会社のパートナー 藤川琢哉、PwCあらた有限責任監査法人のパートナー 宮村和谷が語り合いました。

記事はこちら(外部サイトへ)

AIの社会実装に向けて、 ベストプラクティスを参考にAIガバナンスを実践する

主要メンバー

藤川 琢哉

パートナー, PwCコンサルティング合同会社

Email

築地 テレサ

シニアマネージャー, PwCコンサルティング合同会社

Email