Skip to content Skip to footer
Search

Loading Results

組織における責任あるAIとは

信頼できるAI

AIは、社会を発展させる無限の可能性を秘めています。賢く使えば、世界中の企業、政府、そして個人に大きな利益をもたらすことができる存在です。

AIによるビジネスチャンスはどのくらいあるのでしょうか。PwCの調査によると、AIが2030年までに世界経済に与える影響は15.7兆米ドルと試算されています。AIによる生産性向上、そして、AIを搭載した製品やAIを活用したサービスによる消費者需要の増加が主な要因です。AIの活用はあらゆる業界へ広がりを見せています。顧客サービス、販売からバックオフィスの自動化まで、あらゆる領域へ影響を及ぼしているといっても過言ではありません。AIがもたらす変革の可能性は、経営幹部にとっても関心事です。『第22回世界CEO意識調査』によると、今後5年間でAIがビジネスのやり方を大きく変化させると回答したCEOは、72%にも達します。

ここで忘れてはいけないのは、AIが秘めた大きな可能性の裏にある大きなリスクです。貴社のAIアルゴリズムは貴社の価値観に合致した意思決定を行っていますか。顧客は貴社のAIアルゴリズムによって提供されたデータを信頼していますか。AIが導き出した解を説明できない場合、貴社ブランドへの影響を認識していますか。AIの可能性を最大限引き出すには、AIに付随するリスクを想定し、AIを活用した将来を見据えたシステムを構築しておくことが必要不可欠です。そしてこれらはAIの専門家だけの責任ではありません。CEOをはじめとする経営層、事業部の統括者も念頭に置かなければならない重要なポイントです。

世界中の組織が説明可能なAIの必要性を認識

64%

認証、モニタリング、検証を通じ、AIセキュリティの強化を図る

61%

透明性が高く、説明可能、かつ立証可能なAIモデルを構築する

55%

倫理的に正しく、理解可能で合法的なシステムを構築する

52%

AIの運用モデルと運用プロセスを通じ、ガバナンスの向上を図る

47%

データやモデルそのものと、アルゴリズムの使用の仕方に偏りがないかテストする

3%

現時点でAI問題に対処する計画は立ててない

出典:PwC 2019年AI予測
回答者数:1,001人
Q:信頼性、公平性、安定性に優れた責任あるAIシステムの開発と導入に向けて、2019年はどのようなステップを踏む予定ですか?

AIリスク

性能

AIアルゴリズムが、現実世界のデータと恣意的データを取り込む場合、人間のバイアスや偏見をも学習し、模倣するリスクをはらんでしまいます。

性能リスクには、以下があります。

  • エラー、異常リスク
  • バイアスのリスク
  • 説明可能性にかかわるリスク
  • 透明性(ブラックボックス)に係るリスク
  • 性能安定性にかかわるリスク

View more

安全性

歴史的に見ても人間は、自動化されたシステムの利用に慎重でした。AIも例外ではありません。

安全性リスクには、以下があります。

  • サイバー攻撃リスク
  • プライバシー侵害リスク
  • オープンソースソフトウェアリスク
  • 摂動を与えることでモデルに間違った答えを出力させるリスク(Adversarial attacks)

View more

制御

他のテクノロジーと同様に、AIも、明確に定義したリスクと制御の下、組織全体にわたって監視する必要があります。

制御リスクには、以下があります。

  • AIが「不正」になるリスク
  • 悪意のあるAIを止められないリスク

View more

経済

経済活動全体にわたって自動化が採用されると、既存の業務に影響が出始め、新しい職種やスキルへの需要が高まります。

経済リスクには、以下があります。

  • 職業の配置転換リスク
  • 権利独占リスク
  • 責任リスク

View more

社会的

複雑で自律的なAIが広く浸透すると、システム間の「エコーチェンバー(特定の考えなどが増幅されて影響力を持つこと)」が形成され、人と人との間にも影響を及ぼします。

社会的リスクには、以下があります。

  • 自動兵器拡散リスク
  • 人工知能デバイドリスク※

※人工知能の恩恵を受けられる人と受けられない人との間で、得られる情報や利用できるサービス、それに伴う収入の格差が生じること

View more

倫理

AIソリューションは特定の目的で設計されており、その目的によっては、組織的価値と社会的価値が対する場合があります。

倫理リスクには、以下があります。

  • バリューアライメントのリスク※

※機械学習の観点から見て人間の持つ価値観や倫理観をどのように機械に学習させるかという問題

View more

説明可能なAI対応に向けたツールキット

取締役会、顧客、規制当局など、さまざまなステークホルダーから寄せられるAIやデータ利用に関する問い合わせに対し、企業は回答する必要があります。それは、開発から管理状況まで、あらゆる領域に及びます。ただ、回答するだけでは十分ではありません。ガバナンスと規制の遵守を、継続的に証明し続ける必要があります。

PwCは、倫理的かつ説明可能な形を担保しながらAI活用を支援する、説明可能なAI対応に向けたツールキットを提供しています。ツールキットには、カスタマイズ可能なフレームワーク、ツール、そしてプロセスが含まれています。これにより、戦略から実行まで、各社固有のビジネス要件やAI成熟度に沿った支援が可能になります。

説明可能なAI対応に向けたツールキットは、5つの側面からアプローチしています。

ガバナンス

AIシステムの責任の所在

説明可能なAIの基盤は、包括的な企業ガバナンスフレームワークです。リスクと制御に関し、AI活用に向けた各社固有のプロセスに沿って網羅的に支援します。

 

解釈性と説明可能性

AIの意思決定プロセス

人間が理解できないAIシステムは、企業が重要な意思決定を説明できないという、「ブラックボックス」問題を引き起こします。PwCが提供する説明可能なAI対応に向けたアプローチは、意思決定の全体像および個々の選択および予測について、ステークホルダーに応じた説明を支援します。

バイアスと公平性

AIの偏見のなさと公平性

特定データソース固有のバイアスにさらされたAIシステムは、ある個人またはグループにとって不公平な結果につながる意思決定を行うリスクがあります。公平性は、多くの異なる、時には矛盾した定義を持つ社会的構造で成り立っています。PwCの説明可能なAIに対応したアプローチによって、企業はバイアス認知向上を促し、また、システムの意思決定プロセスの改善を促す是正措置を講じるための支援を行います。

堅牢性と安全性

AIは意図した動作をしているか

安定性が実証されず性能要件を満たしていないAIシステムが運用される場合、エラーの発生もさることながら誤った判断を下す危険性が高くなります。PwCの説明可能なAIに向けたアプローチには、システムを堅牢にするのに必要なモデルの弱点の特定、システムの安全性評価、長期的な性能をモニターするサービスが含まれています。

倫理と規制

AIの合法性および倫理性

PwCの倫理的AIフレームワークは、企業による倫理的かつ道徳的なAIソリューションの開発と管理に役立つガイダンスと実用的なアプローチを提供します。

このフレームワークには、AIソリューションごとに倫理的考慮事項のコンテキスト化、倫理的リスクの特定と倫理的原則の適用を可能とするアプローチも含まれています。

責任ある変革

説明可能なAIは、AI活用を検討し始めたばかりでも、また、大規模展開に備える段階であっても、有用です。PwCは、AIを活用した事業支援や変革における確固たる実績とグローバルな専門知識を有しています。これらを基にクライアントのニーズを理解・評価し、各社固有のリスクと課題に対応する戦略の策定から実行まで支援します。

お問い合わせ

組織における責任あるAIとはに関するお問い合わせはこちら


{{filterContent.facetedTitle}}

主要メンバー

藤川 琢哉

パートナー, PwCコンサルティング合同会社

Email

築地 テレサ

シニアマネージャー, PwCコンサルティング合同会社

Email