AIを利活用するにあたって企業に求められる10のAI原則

AI倫理の運用化に向けた第一歩

本稿では、企業がAIを利活用するにあたって果たすべき10のAI原則を提唱し、AIの利点を活用すると同時に、そのリスクを低減する方法について解説します。

過去6年間における検索ワードのトレンドを調べてみると、「AI倫理」「倫理AI」「有益なAI」「信頼できるAI」「責任あるAI」というワードが非常に注目を集めていることがわかります。AIがビジネスで利用され始めた1980年代から90年代においては、倫理についての議論は学会の片隅で細々と行われているだけで、ビジネスの世界で話題にあがることは決してありませんでした。しかしながら、近年のAIの導入状況とAIの実質的なリスクの双方を考えると、これらの用語がトレンドになっていることは驚くべきことではありません。

では、「AI倫理」「倫理AI」「有益なAI」「信頼できるAI」「責任あるAI」といった用語は実際にどのような意味を持つのでしょうか。また、誰がこのような用語を考え出したのでしょうか。特に、AIの積極的に利用を推進しているテクノロジー企業やそれ以外の企業において、これらの用語は何を意味するのでしょうか。

名前には、どのような意味が含まれますか

「名前とは何を意味するのでしょうか。私たちが「バラ」と呼ぶ対象は、他の呼び方に変えたとしても、甘い香りがすることに変わりはありません」

上記の文章は、ウィリアム・シェイクスピアの戯曲「ロミオとジュリエット」の有名なセリフです。私たちがAIにおいて原則と呼ぶ名称は本当にこれで良いのでしょうか。例えば、「責任あるAI」という名称は「信頼できるAI」「倫理的なAI」「有益なAI」などに変えても問題ないでしょうか。いいえ、この答えには明らかに問題があります。私たちが名付けた諸原則は、その名前自体に実質的に重要な意味を持っています。

デジタルコンピューターを最初に考案した18世紀の英国の数学者であり、発明家でもあるチャールズ・バベッジの発言の方が、その意図がより分かりやすいかもしれません。

「名前にはどのような意味が含まれていますか。あなたが名前に何かしらの意味合いを加えるまでは、名前自体は単なる空っぽの箱でしかありません」

10年程前まではAIにおける一連の原則は「単なる空っぽの箱」の状態でしたが、今日では非常に具体的な意味を持っています。この箱に該当する名称と、それが持つ意味はどういったものかを見てみましょう。

信頼できるAI:欧州委員会の「AIに関するハイレベルな専門家グループ」(HLEG-AI)は、信頼できるAIを合法的なAI(適用されるすべての法律および規制に準拠)、倫理的なAI(倫理原則と価値の遵守を担保)、および堅牢なAI(意図しない危害を引き起こさない)」と定義しています。

倫理的なAI:EUの観点からは、倫理的なAI「信頼できるAI」に含まれます。倫理原則は、人間の尊厳の尊重、個人の自由、民主主義の尊重、正義と法の支配、平等、無差別と連帯、市民の権利という基本的権利から導出されます。これらの基本的権利から、HLEG-AIは4つの倫理原則を以下のとおり提案しています

  • 人間の自律性尊重の原則:この原則は、「AIシステムは人間を不当に従属させたり、強要したり、欺いたり、操作したり、条件付けたり、誘導したりしてはならない。むしろ、人間の認知的、社会的、文化的スキルを拡大、補完、強化できるように設計すべきだ」ということを意味しています。
  • 危害防止の原則:この原則は、「AIシステムが危害を引き起こしたり、悪化させたり、あるいは、人間に悪影響を及ぼしたりしてはならない」ことを要求しています。
  • 公平性の原則:この原則は、「AIシステムの開発、展開、使用は公平でなければならない」ことを保証します。
  • 説明可能性の原則:この原則は、「プロセスに透明性があるとともに、AIシステムの機能と目的が公開され、それによって決定事項が(可能な限り)直接的・間接的な影響を受ける人々に対して(可能な限り)説明可能なものである」ことを意味しています。

HLEG-AIは、これらの原則の間に緊張関係があり、それらの間のトレードオフを特定し、評価したうえで、それらに基づいて行動する必要があることも伝えています。

有益なAI:この概念について、HLEG-AIでは定義や詳細な検討を行っていません。有益なAIという概念は、アシロマの原則の1つに起源があります。2017年のアシロマ会議において、AIの研究目標は「無秩序な知能ではなく、有益な知能を生み出すこと」と定義されました。「有益な」という言葉には、さらに詳しい検討が求められます。例えば、「誰にとって有益なのか。人類全体か、その一部か、AIに出資する会社株主か」「いつ有益になるのか。現在か、今から10年後か」「有益性を誰が判断するのか」などの検討が必要です。スチュアート・ラッセルは、人間にとっての有益性を証明可能な概念としてAIを紹介しています。ラッセルによれば、「機械は、その行動が人間の目的を達成するものと期待できる限りにおいて有益である」ということになります。ここでの焦点は、AIの価値を人間にとっての価値と整合させることであり、AIに人間の価値を学習させることです。「証明可能」という概念は、私たちが現在持ち合わせているあるものではなく、今後目指すべきものを強く示していると言えます。

上述の定義から、倫理的なAI信頼できるAIの意味合いの中に含まれることが分かります。しかしながら、有益なAI倫理的なAIとの関係は、定義上で明らかになっていません。では、4原則により定義された意味合いの中で、倫理的でありながらも有益でないAIは存在するのでしょうか。逆に、有益ではあるが倫理的でないAIは存在し得るのでしょうか。

これら2つの問いに対する回答は、上記の定義と、定義に内在するトレードオフを私たちがどう解釈するかにより、いずれの場合でも「あり得る」と肯定的に解釈できる可能性があります。4原則を尊重した倫理的なAIであっても、人間の目的を実現しない形で構築されてしまうことは、どうしてもあり得ます(例えば、宇宙探査を目的とするAIプロジェクトは、人間の自律性尊重や危害防止などに則って実行されたとしても、少数の宇宙愛好家を除いた大多数の人間にとっては有益性がないでしょう)。同様に、基本的権利や倫理的原則を必ずしも全て尊重していなかったとしても、有益なAIが存在する可能性があります(例えば、パンデミック時に人間の移動を厳しく制限するAIは、多くの人命を救う効果があるとしても、個人の自由を制限することになります)。

信頼できるAIの実現

HLEG-AIのドキュメントには、AIの4つの倫理原則だけでなく、信頼できるAIを実現するための7つの重要な要件も示されています。これらの要件は、エンドユーザー、開発者、企業、社会全体など、AIモデル開発ライフサイクルにおけるさまざまな段階で関与する利害関係者に対応しています。HLEG-AIの7つの要件は次のとおりです。

(a)人間による介在および監視

(b)技術的な堅牢性と安全性

(c)プライバシーとデータガバナンス

(d)透明性

(e)多様性、無差別および公平性

(f)社会的および環境的幸福

(g)説明責任

これら7つの要件には、主要な基本的権利と倫理原則が取り込まれています。初期の段階から信頼されているシステムはありません。信頼を獲得するために、システムはこれらの7つの原則を明確に反映する必要があります。

これまでの議論をまとめると、信頼できるAI(倫理的なAIを含む)と有益なAIの2つの異なる概念があることが分かりました。それでは、次に責任あるAIを見てみましょう。

責任あるAI

リマとチャによると責任あるAIという名称に含まれている「責任ある」という言葉には、関連する3つの異なる意味があります。

  • 非難に値するものとしての責任:この概念は、特定の行動または不作為についての非難を「i」に帰することが適切である場合、主体「i」がその責任を負うべきであることを提案しています。このような非難に値するための必要条件は、1)道徳的機関、2)因果関係、3)知識、4)自由、5)不正行為です。
  • 説明責任としての責任:特定の行為に対して、主体「i」に説明責任があると見なされるのは、当該行為を生じさせる、または防止すべき役割を「i」が担っていた場合となります。このような説明責任に必要な条件は、1)責任を持って行動するエージェントの能力、2)エージェント「i」と行動の間の因果関係です。
  • 義務としての責任:主体「i」に義務としての責任があるということは、主体「i」が自己の行動または不作為を行ったとき、特定の相手方に対して弁済または補償を行う必要があることを意味します。ここでは、法制度において厳格な責任の割り当てが適用されることが多いため、道徳的機関に関係なく責任の帰属に焦点を当てています。

信頼できるAIは、人間による介在と監視に対して、要件によっては非難に値する考え方を示しています。また、人間による介在と監視について、ヒューマン・イン・ザ・ループ(HITL:Human-in-the-Loop)、ヒューマン・オン・ザ・ループ(HOTL:Human-on-the-Loop)、ヒューマン・イン・コマンド(HIC:Human-in-Command)といったガバナンス手法による監視を提案しています。説明責任は、信頼できるAIにおける明示的な要件であり、監査可能性、悪影響の最小化と報告、トレードオフ、および救済が含まれています。責任の概念は、当事者の行動または不作為を補償する既存の法律および規制がある限り、信頼できるAIに含まれます。ただし、そのような補償は要件として明示的には含まれていません。

責任あるAIには、情報工学者であるバージニア・ディグナムによる別の定義があります。

  • 責任あるAIは、AIシステムの開発中および展開中に、倫理的、道徳的、法的、文化的、および社会経済的影響を考慮することを目的としたアプローチです。
  • 責任あるAIは、持続可能な世界で人間の繁栄と幸福を確保するために、基本的な人間の原則と価値観に沿ったインテリジェントシステムの開発における人間の責任に関するものです。

この見解は、AIに対する包括的な観点(例えば、倫理的または道徳的だけでなく、法的、文化的、社会経済的観点)を提供しており、AIシステムの開発と展開を強調しています。AIはテクノロジーだけでなく、人間のシステム、プロセス、ガバナンスに対して重要な視点を置くことで、AIシステムの有益な性質を評価および決定することができます。

企業向けの責任あるAIの10のAI原則

ここまでの議論で、AIを利活用するにあたって企業が責任を果たすべき10のAI原則を提示する準備が整いました。この10の原則は、「信頼できるAI」「倫理的なAI」「有益なAI」「責任あるAI」の定義から導き出されています。また、ここでの焦点は、上記に記載した信頼できるAIの実現に関係する利害関係者の1つであるAIシステムを構築/展開/購入/使用している企業にあります。

  1. AIの原則と実践における整合性の確保:AIシステムの自動化、支援、拡張、または自律的に実行する特定の能力、およびビジネスにおける使用例と顧客や社会への影響を考えると、企業はさまざまなビジネスユニットと機能領域の間で、採用したいAIの原則、ポリシー、実践との整合性を確保する必要があります。
  2. 適切なトップダウン、およびエンドツーエンドのガバナンスの確保:この原則は、人間による介在と監視とは少し異なり、ビジネス環境下で適用されるものです。人間による監視は、エンドツーエンドの観点(AIを活用した製品やサービスのライフサイクル全段階において継続的なAIガバナンス)だけでなく、トップダウンの観点(エンドユーザーや規制当局、上級管理職や企業の取締役会にいたるまでの全階層)にも適用する必要があります。
  3. 堅牢性と安全性を確保した設計:AIシステムの堅牢性と安全性の原則は、AIシステムの社会的影響に関連するリスクに基づいて設計する必要があります。リスクの重要度を定めることは、これを達成するための一般的な方法です。さらに、システムは期待どおりに確実に作動する必要があります。システムの不安定性は、ユーザーの信頼を侵害する可能性があり、AIシステムの意思決定全体に悪影響を与える可能性があります。
  4. 運動制御と価値整合の実施:この原則は、有益なAIの要件からインスピレーションを得ています。ここでの価値整合は企業の価値に限定されており、人間の価値の幅広い問題には対応していません。同様に、運動制御の原則は、AIシステムがそのパフォーマンスから逸脱し始めるタイミングを特定し、制御下に置くことに焦点を当てています。
  5. プライバシーの尊重:この原則は、信頼できるAIのプライバシーとデータガバナンスの要件を拡張したものです。ただし、プライバシーの対象は元のデータだけでなく、プライバシーが必要な場合に限り、AIシステムの洞察、決定、アクション、および結果にも含まれます。プライバシーと透明性の原則の間には、避けられないトレードオフがあります。多くの規制はこの原則(CCPA、GDPR)に焦点を当てていますが、組織はデータを利用して「実行すべきこと」と「実行できること」を広範に検討する必要があります。
  6. 透明性を保つ:この原則は、AIシステムの情報、意思決定、アクションの追跡可能性、説明可能性、伝達、AIシステムに入力するデータ、そして、より広範なシステムがAIをどのように活用するか(また、利用している具体的なシステム)についての透明性を具体化します。
  7. セキュリティの組み込み:この原則は、AIシステムの設計と展開にセキュリティを埋め込むことに基づいています。セキュリティの原則は、意図しない危害や、AIの意思決定に対する敵対的攻撃を含む悪意のある危害からユーザーを保護するように設計されています。HLEG-AIは、この原則を堅牢性の要件に含めています。
  8. 多様性、反差別、公平性の実現:この原則は、エンドツーエンドのAIガバナンス、またはAIシステムのライフサイクルにおける不公平で予期しないバイアス、アクセシビリティ、ユニバーサルデザイン、多様性の回避または最小化に焦点を当てています。これにより、AIを活用した製品やサービスがより広く社会的利益に貢献することを促進します。
  9. 説明責任の明確化:この原則は、監査可能性、最小化および悪影響の報告、トレードオフおよび救済の要件を具体化します。それらは、先に説明した非難説明責任負債としての責任の重要な要素に対処します。
  10. 社会的および環境的幸福の促進:近年、企業は環境、社会、ガバナンス(ESG)の要素に焦点を当てようと考えている傾向があり、特にこの原則がよく適用されています。原則2.はより広範なガバナンスの側面に取り組んでいる一方で、この原則は社会的および環境的要因に焦点を当てています。また、この原則は、「AI4Good」または「社会的利益のためのAI」と呼ばれることもあります。最近のいくつかの取り組みでは、ESGにウェルビーイング対策を追加し、AIの開発と使用の受け入れ基準として含める対策としてのESG(またはESGの範囲を超えて)を定量化する方法を主に検討しています。

図1:企業がAIを利活用するにあたって果たすべき10のAI原則

図1 企業がAIを利活用するにあたって果たすべき10のAI原則

(Ten Principles of Responsible AI for Corporates:https://towardsdatascience.com/ten-principles-of-responsible-ai-for-corporates-dd85ca509da9 より引用。作成はPwC)

なお、上述した諸原則の多くは、過去数年の間に多数の企業や、非営利団体、コンソーシアム、専門家団体、各国政府、規制機関が、共通の原則の統合と合意に努める中で発展してきたものです。

※本稿はPwCが寄稿したTen Principles of Responsible AI for Corporatesの一部を翻訳、加工したものです。

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}