AI活用に向けたガバナンスルールの潮流―企業・政府・研究機関が取るべき姿勢とは【第1回 各国の動向とAIガバナンスに求められる視点】

2021-05-18

人工知能(AI)技術の開発やAIを活用した製品・サービスの展開が各国で進んでいます。こうした中、イノベーションを促進すると同時に、差別的な利用やプライバシーの侵害といったリスクを回避するために、社会的・倫理的側面を考慮した社会の仕組みづくりが求められています。本稿では、各国・地域におけるAIガバナンスなどに係るルールの動向と共に、AI分野において求められる企業・政府・研究機関の在り方、考慮すべき事項について考察します。

各国・地域においてAI関連市場が拡大し、開発・利活用に向けたルール作りが進展

企業・政府機関問わず多様な分野においてAIの開発・導入が世界中で進められており、AIが世界経済に与える影響は、2030年には15.7兆米ドルに達すると推定されています*1。そして各国政府、国際機関、民間企業などはAI市場の急速な拡大に対応し、普及に向けたエコシステムを創出するため、AIに係るルール(フレームワーク、ガイドラインなど)の策定を進めています(図1)。これらのルールは、イノベーションを必要以上に妨げず、関連するリスクを低減し、人間中心の原則に基づく点が特徴です。

人権、民主主義および法の支配の尊重を価値基盤とするEUでは、AI分野においてもその原則を反映させたルール作りを進めており、2019年4月には「信頼できるAIの倫理ガイドライン」*2を公開し、AI技術者が信頼性を担保するための7つの主要原則を定義しました。また、2020年2月には、ホワイトペーパー「人工知能白書:卓越と信頼に向けたヨーロッパのアプローチ」*3を発出し、AI開発企業に対して、AIが市民や消費者、公共の利益に役立つ形で活用され、人間の尊厳やプライバシー保護といった価値観への配慮がなされるよう求めています。そして、中小企業も含む幅広い主体によるイノベーションと、AI活用に際しての信頼あるエコシステムの構築を企図した内容となっています。

技術面で先行する米国では、技術競争力の強化に向けた投資や基準作りの方針がすでに提示されています。2019年発表の大統領令*4において、AI開発への重点的な予算配分を公表すると共に、米国立標準技術研究所(NIST)を中心に、技術競争力を生かした米国発の安全規制や国際的な規格策定を進める方針を示しています。そして米国では、民間企業・団体による原則やガイドラインを策定する動きも活発です。2016年に複数の大手IT企業を中心に設立されたAIの研究団体は、参加パートナーも増え、拡大を続けています。また、米国情報技術工業協議会(ITI)による、産業界の責任に関する原則を掲げた「AI Policy Principles」など、民間主体の自主的なルール策定も進んでいます。なお米国商工会議所は2019年に連邦・各国政府に向けたAI原則を発行し、原則の1つとして「厳格な規制ではなく、リスク評価・管理によりガバナンスを維持すること」を含むなど、過剰に閉鎖的な規制は回避すべきとの姿勢を示しています。

国際的にもAIにおけるルール・原則を定める動きが加速しています。基準の策定にあたっては、国際標準化機構(ISO)、国際電気標準会議(IEC)、IEEEなどの国際標準化機関が、倫理とガバナンスなどの観点から、AI標準に関する独自の概念の構築に取り組んでいます。特に注目すべきは、経済協力開発機構(OECD)およびAIに関するグローバルパートナーシップ(GPAI)による政策的かつ実践的なガイドラインとしてのAI原則でしょう。2019年5月にOECD加盟36カ国とアルゼンチン、ブラジル、コロンビア、コスタリカ、ペルー、ルーマニアの各国は、OECDの年次閣僚理事会においてAIに関する初の国際的なガイドラインである「人工知能に関するOECD原則」*5に署名し、合意しました。また2020年6月には、「人間中心」の考え方に基づき、責任あるAIの開発と使用に取り組む国際的なイニシアチブとしてGPAIが設立され、OECDのAI原則の実装に向けた検討が進められています。各国・地域においてAI関連ルールの検討、策定が進められる中、国際的な調和が求められること、AI利活用が国境を越えなされていくことに鑑みると、今後もOECDやGPAIを通じて望ましいAIガバナンスの在り方が発信され、影響を与えていくものと考えられます。

なお、昨今は欧米のみならず中国、シンガポールを筆頭にアジア勢もAI分野発展に向け、国内ルールの整備と共に、OECDなど国際的ルールの形成の場に入り込み、イニシアチブを取る動きが顕在化しています。中国は、次世代AI発展計画において、2030年にAIを注力分野として経済規模を10兆元とする国家戦略を公表し、AI研究や特許出願数の拡大に力を入れています。また「北京AI原則」を公表し、欧米的なプライバシー保護などの側面に触れる一方で、労働者の雇用確保や技術・データの独占阻止に向けた措置を講じるなど、独自の概念を示しています。他方、シンガポールは実装に向けた、より具体的なガバナンス制度の構築を進めています。プライバシーや公平性などの原則に基づき、企業向けの方法論まで踏み込んだ「Model AI Governance Framework(第2版)」や組織に対する「実施および自己診断ガイド」を発表するなど、企業が自主的かつ明確にガバナンスを構築するための仕組みづくりに努めています。

このように世界の各国・地域においてAIルールが整備されている中、日本も、政府の統合イノベーション戦略推進会議が「AI戦略2019」および「人間中心のAI社会原則」を発表しました。AI技術を活用できる理想的な社会の在り方、それを達成するための政府、開発者、事業者が考慮すべきルールとして「AI社会原則」や「AI開発利用原則」が公表されるなど、AI利活用に向けた枠組みの整備が進められているところです*6

図表1: 各国・地域における主要なAI関連ルール(抜粋)

PwC Japanグループが提唱する、AIガバナンスに求められる視点

AI技術の利活用拡大、各国政府・関連ステークホルダーによるルール策定の活発化を踏まえ、PwC Japanグループは「H/O/P/Eフレームワーク」に基づく、俯瞰的なAIガバナンスの必要性を提唱しています(図2)。

「H:ホリスティックAIガバナンス」では、全てのステークホルダーが関与するガバナンスとして、設計・開発・利用・保守における共通の目標を共有し、信頼性を構築することの重要性を提示しています。この視点を採用することで、ユーザーや一般市民からの積極的なフィードバックを反映した適切なルール・ガイダンス・法律の策定、プロセスの明確化を期待できます。

「O:オープンAIガバナンス」では、プロセスの透明性を保つため、開発を統括する企業やチームが多様なステークホルダーと協働してAIガバナンスを強化し、オープンガバナンスに対応し、独立した認証担当者を設置することでアシュアランスを確保する必要性*7を説いています。

「P:プロポーショナルAIガバナンス」は、潜在リスクとその影響に応じ変化するガバナンスを指します。具体的なガバナンスの強度や対策については、「使用されるAI技術の種類」「社会的価値観」「使用されるデータのプライバシーレベル」「影響を受ける人数」「リスクの重大性」「リスクが生じる確率」「AIガバナンスツールの範囲」といった、技術の複雑性やAIを活用した技術製品の潜在的影響力の大きさに応じて検討されることを推奨しています。

「E:エンドツーエンドAIガバナンス」は、AI製品・サービスのライフサイクル全段階における継続的なガバナンスとして、利用開始前から終了後まで継続的なガバナンスプロセスの検討、更新の必要性を示しています。

図表2: H/O/P/Eフレームワークの概要

これらのAIルールにおける潮流、考慮すべき原則・フレームワークなどを踏まえ、企業・政府・研究機関はどのような施策を立案し、どのように取り組むべきでしょうか。これから検討していきます。

*1:PwC, 2017年. 「Sizing the prize

*2:European Commission, 2019年. 「Ethics Guidelines for Trustworthy Artificial Intelligence

*3:European Commission, 2020年. 「White Paper on Artificial Intelligence: A European approach to excellence and trust

*4:Federal Register, 2019年. 「Maintaining American Leadership in Artificial Intelligence

*5:OECD, 2019年. 「OECD Principles on AI

*6:また、個人情報保護法等に定めるプライバシーに配慮しつつ、AI活用やデータの流通・利活用のためのデータ取引契約を検討する際の指針として、経済産業省が「AI・データの利用に関する契約ガイドライン」を公表するなど、関連ガイドラインの策定も進められている

*7:具体的には、「フィードバックを収集するためのユーザー組織はあるのか」「そのユーザー組織は、公正でバランスのとれたフィードバックを提供しているか」「スマート・テック・アプリケーションの販売者はフィードバックに対応しているのか」「ガバナンスのギャップが迅速に解消されていることを誰が確認しているのか」「解決されていない場合は誰が責任を負うのか」「コンプライアンスと責任分担の動機付けのために、どのようなプロセスが導入されているのか」「違反者を従わせる救済策は必要なのか」といった視点での確認の必要性を指す。詳細は「今求められる包括的なAIガバナンス」を参照

執筆者

三治 信一朗

パートナー, PwCコンサルティング合同会社

Email

藤川 琢哉

パートナー, PwCコンサルティング合同会社

Email

Technology Laboratoryの取り組み

PwCコンサルティングのTechnology Laboratoryは、世界各国におけるPwCのさまざまなラボと緊密に連携しながら、先端技術に関する幅広い情報を集積しています。製造、通信、インフラストラクチャー、ヘルスケアなどの各産業・ビジネスに関する豊富なインサイトを有しており、これらの知見と未来予測・アジェンダ設定を組み合わせ、企業の事業変革、大学・研究機関の技術イノベーション、政府の産業政策を総合的に支援します。

詳細はこちら

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}