
次世代のB2Bセールス ―ヒトとAIの協働による次世代の営業スタイルの実現に向けて―【後編】
AI活用の営業改革を成功させるために、重要な5つのポイントのうち「学習データマネジメント」「トラスト」「テクノロジー」について解説します。
2022-06-14
AIの産業界における活用が大きく進展し、社会実装が進む一方で、AIの性質に起因する潜在的なインシデントリスクが顕在化しつつあります。本コラムではこうしたリスクへの対応策として注目されている「説明可能なAI(Explainable AI)」について、3回にわたり解説していきます。
第1回では、「なぜ説明可能なAI(Explainable AI)が必要なのか」というテーマで、AIインシデントやグローバルでの規制動向を紹介し、AIをビジネス活用するうえで重要な説明可能なAI(Explainable AI)の概要を説明しました。
第2回である今回は「説明可能なAI(Explainable AI)がもたらすビジネス価値」というテーマで、説明可能なAI(Explainable AI)に企業が取り組むメリットを論じます。
第3回はAIの導入、AIモデルの改善を図る際に考慮すべき説明可能性の重要性、説明可能性の影響要因、およびモデルの説明手法など、技術的要素も交えながら解説します。
なお、今回の内容は、2018年にPwC英国が発表した"Explainable AI: Driving business value through greater understanding"の一部を翻訳・再構成したものとなります。
AIの活用によって企業はビジネスを加速し、競合優位性を獲得することが可能となります。それでは、AIをより有効に活用し、ステークホルダーからの信頼獲得やパフォーマンスを向上させるために、説明可能なAI(Explainable AI)は何ができるのでしょうか。
PwCでは、機能の最適化におけるモデルの性能と意思決定、動作の保証におけるモデルの制御と安全性、原則の維持におけるAIの信頼性と倫理性、法令の遵守における説明責任と法規制、という4つの領域の8項目を考慮することで、説明可能なAI(Explainable AI)がビジネスにメリットをもたらすことができると定義しています(図表1)。
図表1 説明可能なAI(Explainable AI)がビジネスにメリットをもたらす領域
ここからは8つの項目それぞれについて説明します。
AIのパフォーマンス最大化に向け、潜在的な弱点を理解することが重要です。AIモデルが何をしているのか、なぜ誤った判断をするのか、それらのAIの挙動を理解することで、容易にAIモデルを改善できます。
一例を挙げると、DeepMind社は、AIモデルがなぜ特定の判断をしているのかを理解できるようにすることで、Alpha Goを最適化し、2016年にプロ囲碁棋士を破りました。仮にAIがブラックボックスのままであれば、Alpha Goがプロ囲碁棋士を破ることは不可能だったでしょう。
説明可能性は、モデルの欠陥やデータの偏りの検出に活用できるツールであり、AIに関わる全てのユーザーに対する信頼を築きます。また、予測の検証により、モデルの改良や課題解決に向けた新たなインサイトの獲得も可能にします。モデルが何をしているのか、なぜその予測に至るのかを理解すれば、モデルやデータセットの偏りを検出することは容易となります。
AIをはじめとする機械学習のアプリケーションは、ビジネスにおける意思決定の自動化に活用されています。また、分析によるインサイトを得るために活用する場合も増えています。
例えば、場所、営業時間、天候、時期、取扱商品、店舗サイズ等のデータを使って、大規模小売チェーン全体の店舗売上を予測するモデルを構築し、さまざまな気象条件での特定の日にちの店舗全体の売上を予測することができます。このとき、説明可能なモデルを構築すれば、売上に貢献している要因が何であるかを把握し、それによりさらなる売上向上施策を検討することが可能となります。
機械学習の利用法のもう一つの例として、顧客離反の予測が挙げられます。
自社の顧客が来月中に競合他社に90%の確率で乗り換えるという予測があるとします。割引サービスを提供することで顧客を維持できるかもしれませんが、乗り換えの原因がカスタマーサービスであった場合、割引をしても顧客維持にはつながりません。価格とは無関係の理由で顧客を失っていることに気づかず、不必要に効果のない高価なインセンティブを提供してしまうかもしれません。顧客離反を予測するモデルが「顧客が競合他社に乗り換えるのは、過去12カ月間にカスタマーサービスに電話がつながるまで47分も待ったからだ」と予測できるなら、顧客維持に向け適切な対処をとることが可能になります。
概念実証(PoC)から本格的な導入に移行するためには、AIシステムが特定の意図した要件を満たしていること、そして不要な挙動がないことに確信を持つ必要があります。AIシステムでエラーが起きた場合には、是正措置を講じるため、あるいはAIシステムを停止させるために、エラーの原因を特定する必要があります。
説明可能なAI(Explainable AI)では、パフォーマンスを監視し、エラーにフラグを立て、AIシステムを停止させるメカニズムを提供することで、AIの制御に役立ちます。
データプライバシーの観点からは、説明可能なAI(Explainable AI)は、許可されたデータのみが合意された目的のために使用されていることを確認し、必要に応じてデータを削除することを可能にします。
AIの開発者は、ブラックボックス化したシステムに対して「データを渡す」ことで問題を解決しようとすることがよくあります。AIモデルが出力を提供するために使用しているデータと機能を可視化すれば、発生した問題を確実に理解し、制御のレベルを維持することができます。顧客とのインタラクションを通じて学習するシステムの場合、説明可能なAI(Explainable AI)の解釈可能性により、不利益を被る学習の傾向を明らかにすることができます。
AIシステムがより強力になり、普及するにつれ、その安全性とセキュリティに関する懸念が出てきています。こうした懸念は意図的な非倫理的設計、エンジニアリングの見落とし、ハッキング、AIが動作する環境の影響など、さまざまな要因にさかのぼることができますが、説明可能なAI(Explainable AI)はこれらの不具合を特定するのに役立ちます。
説明可能なAI(Explainable AI)に加え、セキュリティチームと密接に連携し、ハッキングや学習・報酬システムの意図的な操作を防ぐことも重要です。
AIの信頼性を高めるには、アルゴリズムが正しい理由で正しい判断をしていることを、ステークホルダーに証明する必要があります。説明可能なアルゴリズムではある程度の証明はできますが、最先端の機械学習評価手法と解釈可能なモデル・アーキテクチャを用いても、社会的な背景が影響する問題は解決されません。アルゴリズムは、過去のデータセットに基づいて学習されるからです。
地震などの災害や新技術など、問題を根本から見直すような出来事が起こり、過去の学習データが無効になることがあります。モデルの挙動を直感的に理解することで、モデルの責任者は、モデルが失敗しそうなときにそれを察知し、適切な行動を取ることができるようになります。
また、説明可能なAI(Explainable AI)は、解釈可能なモデルの安定性、予測可能性、再現性を強化することで、信頼関係の構築にも寄与します。AIシステムが安定した一連の結果を提供し続ければ、ステークホルダーからの信頼は次第に増していきます。AIシステムに対する信頼がいったん確立されると、エンドユーザーは、見たことのない他のアプリケーションもこれまでより信頼しやすくなります。この一連の流れはAIの開発において特に重要です。なぜなら、モデルを活用することで市場環境が変化し、将来の予測が無効になる可能性があるからです。
ソフトウェア開発のライフサイクルにおいて、エンジニアや開発者は機能要件に注力し、ビジネスチームはAI導入のスピードアップやパフォーマンスの向上に注力しています。倫理的な影響やその他の意図しない結果は、ソフトウェア開発において後回しにされる傾向があります。後回しとなることを未然に防ぐため、AIの学習時に最初から倫理観を組み込み、その後も説明可能なAI(Explainable AI)の評価を通じてAIの挙動を監視することが重要となります。
PwCは、AI開発サイクルの設計段階に倫理的配慮を組み込み、倫理的な見落としから生じるリスクに備えるための明確なガバナンスと統制を行うことを目指しています。早期にリスクを理解し軽減するためには、ビジネスマネージャーとソリューションオーナーの間で説明責任を共有することが重要です。
AIシステムの判断に対して、誰が責任を負うのかを明確にすることが重要です。そのため、AIシステムがどのように動作して意思決定に至ったか、どのように学習して人間が意図した通りに機能できるかを明確にする必要があります。
AIによるインシデントが発生した際には、AIの開発者から利用者までの関係者を整理し、インシデントの原因に関わる関係者が責任を負うこととなります。AIが不適切なタスクを実行する決定を下した人物に責任がある場合もあれば、十分な安全制御を構築できなかったソフトウェア開発者に責任がある場合もあります。
現在、AIの規制は緩やかですが、国や業界団体が中心となり、ガバナンス、正確性、透明性、説明可能性について規制を策定し発表しています。またそのほかに、消費者の保護も規制を策定するうえで重要となります。
業界団体や規制当局にとって、AIの発展とともに規制を策定し、産業分野ごとにAIのエコシステムへ反映させることが重要となってきます。そのためにはこれらの多くの機関で、専門知識を習得する必要があり、技術コミュニティを代表する専門機関や学術機関が、技術専門家として政策への助言を行うケースが増えています。
今回は「説明可能なAI(Explainable AI)がもたらすビジネス価値」というテーマで、企業が説明可能なAI(Explainable AI)に取り組むメリットを論じました。
上記で説明した8項目を考慮することで、企業は説明可能なAI(Explainable AI)をビジネス上のメリットの獲得につなげられるでしょう。
次回は、AIの導入、AIモデルの改善を図る際に考慮すべき説明可能性の重要性、説明可能性の影響要因、およびモデルの説明手法など、技術的要素も交えながら解説します。
AI活用の営業改革を成功させるために、重要な5つのポイントのうち「学習データマネジメント」「トラスト」「テクノロジー」について解説します。
AI活用の営業改革を成功させるために、重要な5つのポイントのうち、「ヒトとAI協働での付加価値提供」「営業オペレーションモデル」について解説します。
第2回では、プライバシー保護重視の時代において顧客からの「信頼」を育むためにマーケターは何をすべきか、顧客理解の重要性とともにアプローチ方法について述べます。
第11回は、金沢大学 融合研究域 融合科学系 教授 金間大介氏を迎え、PwCコンサルティングのディレクター東海林崇とマネージャー池田真由が、労働力減少問題の課題先進業界である「福祉・介護」業界における今後の人材獲得戦略を議論しました。
東京大学とPwC Japanグループは未来を創出する経営人材育成を目的に全国の大学の学部生・大学院生を対象にサマープログラムを実施しています。2025年度は受講対象を「全国の大学の学部生・大学院生」へと拡大しました。ビジネスとテクノロジーの双方について理解しながら、ビジネスアイデアを企画・推進し、企業を目指すための力を一緒に学べる講座です。 申込期限:2025年7月31日(木)※2025年7月24日(木)14:00までにID登録が必要です。
PwCコンサルティング合同会社は5月30日(金)より、表題のセミナーをオンデマンド配信します。
PwCコンサルティング合同会社は3月10日(月)より、表題のセミナーをオンデマンド配信します。セミナーの最後に無償トライアルのご案内があります。