AI活用に向けたガバナンスルールの潮流―企業・政府・研究機関が取るべき姿勢とは【第2回 企業とAIガバナンス】

2021-05-25

人工知能(AI)技術の開発やAIを活用した製品・サービスの展開が各国で進んでいます。こうした中、イノベーションを促進すると同時に、差別的な利用やプライバシーの侵害といったリスクを回避するために、社会的・倫理的側面を考慮した社会の仕組みづくりが求められています。本稿では、各国・地域におけるAIガバナンスなどに係るルールの動向と共に、AI分野において求められる企業・政府・研究機関の在り方、考慮すべき事項について考察します。

AIの利活用が進むも、差別的判断やプライバシーの観点から開発や運用が中止となる事態も

AIを活用した製品やサービスが次々と開発される中、学習用データインプットの過程で差別的、あるいは人種差別につながる内容が取り込まれたためにバイアスのかかったアウトプットが創出され、人権やプライバシーの侵害といった批判につながる事案が発生しています。特に米国では、AIによる差別的なアウトプットの創出が規制強化や事業撤退につながったケースもあり、注意が必要です。

ある米国のデジタル面接プラットフォーマーが面接活動において求職者をスコアリング、選別するAIサービスを提供していたところ、AIが以前の面接官の個人的嗜好を倣うことで、例えば黒人女性の採用率が低くなるという差別が生じかねないとの問題点が指摘されました。採用活動にAIを活用することで差別的な結果の創出が想定されることから、イリノイ州議会は「AI動画面接規制法*8」を制定しました。2020年より施行された同法は、面接の様子を録画してAIによりスコアリング、選別する場合には、求職者に事前に告知し、同意を得ることを義務付けています。ニューヨーク市でも、AIを用いて採用候補者を絞り込む自動雇用意思決定ツールの販売を規制する法案が提出されています。

顔認証技術の活用を牽制する動きも出てきています。ある米国大手プラットフォーマーが開発した顔認証システムを米国政府が2019年に導入を検討した際、米国自由人権協会(ACLU)およびこの企業の株主は、信頼性が不十分として反発しました。同年5月には、市民のプライバシー侵害への懸念からサンフランシスコ市が、警察など公共機関による顔認証技術の利用を禁止する条例*9を制定し、ワシントン州も顔認証に係る規制を導入しました。これらの顔認証技術に対する一連の政策や世論の動向を受け、この大手プラットフォーマーは警察への顔認識システムの提供を停止しています。さらに、近年のBlack Lives Matter運動により、顔認証AIが黒人と白人の判別につながるという差別的側面に注目が集まる中、顔認証AI事業からの撤退を表明する企業も出てきています。

AIによる差別的なアウトプット創出への反発や、それによる企業の事業へのインパクトは米国において特に顕著ですが、日本企業にとっても対岸の火事ではありません。企業はAIモデルを公平で透明性のあるものとするため、データやアルゴリズムに偏りがないか確認する機能を持ち、AIモデルの決定が企業や社会にどのような影響を与えるかを把握する必要があります。AIがユーザーを不当に評価することで、AIに誤った認識が醸成され、結果として産業自体の拡大が阻害される可能性もあります。PwCの調査によればAI事業に取り組む企業の半数近くが、新たな法的リスクや倫理的リスクを認識しており、その点も注目すべきでしょう。

AI製品・サービスの開発や普及に向け、企業は社会的原則にどう向き合うべきか

企業のAI製品・サービスが、人間の基本的価値観や昨今の国内外における関連原則を踏まえ、社会にプラスの影響を与えていくには、検証や追跡管理といった技術的側面に加え、説明責任を明確化し、倫理面を考慮した体制を構築するといった組織的側面における対応も求められます。AIは必ずしも入力と出力の関係が明確でなく、プログラムのコードと結果のトランザクションが乖離し、ブラックボックス化する危険性が伴っています。したがって、性別や人事による民族の好みといった人間のバイアスがツールに組み込まれないように、データの不完全性や偏りを低減する必要があります。どのようなインプットに基づいて結論にたどり着き、判断を下したのか、次にどのような行動を取る可能性が高いのか――。これらを説明可能にすることが求められています。

例えば、AIの判断が組織・用途の目的と合致していることを保証するために、ソリューションの全段階を文書化し、AIの判断を追跡・管理できるようにすることも重要でしょう。ただし、開発企業や個人に対し全ての法的責任を追及し、断罪することは、技術開発を委縮させる可能性もあります。単純な技術に係る説明責任だけではなく、AIを社会に投入した設計者の思想信条(AI開発におけるコードオブコンダクト)のような道義的責任についても、今後検討していく必要があるでしょう。

同時に、AIサービス開発を担う理系エンジニアに対し、プロセスの検証や倫理的な課題・人権への配慮やその責任の全てを押し付けることは、技術開発の阻害につながりかねません。政府からの倫理的側面に係るソフトローを参照しつつ、企業として「AI倫理」専門部隊を設置することや、多様な人材を採用するなど組織体制の在り方も検討していくべきです。例えば、企業がAIサービスの開発を始める前に、ガイドラインなどの原則をベースにリスク対応を検討すると共に、AI関連リスクの外部把握の難しさに鑑みて、内部通報者保護制度を導入することでリスクを低減するという手法も考えられます。実際にAI倫理に係る外部委員会などを設置する動きも一部の企業では出てきています。

また、AI分野関与者の多様性を促していくことで、バイアスのかかったインプットや差別的なアウトプットを回避することにもつながるでしょう。AI分野のトップの地位を女性が占める割合はまだまだ少ないと推定されています。人材に多様性が欠如していることと、機械学習の結果のゆがみが生じることには相関関係があるとされていることから、AI学問の世界における人材の多様化を図り、ビジネスにも多様な人材が投入される仕組みを創出する必要があるでしょう。その上で、スキル、経験、学歴、社会、文化、職業についての考えが異なる人材がバランスよく混在する集団を組成し、AIサービスの開発を目指すことが、今後不可欠となるのではないでしょうか。企業には技術的な側面に対応すると同時に、専門組織を組成したり、多様性を受け入れる土壌を社内に醸成したりするなど、組織的な側面に対応することで、AI技術の偏りや、それに伴う社会的不平等の拡大を阻止するような姿勢が求められています。

*8:Illinois General Assembly, 「820 ILCS 42/ Artificial Intelligence Video Interview Act.

*9:Electronic Frontier Foundation, 2019年. 「Stop Secret Surveillance Ordinance

執筆者

三治 信一朗

パートナー, PwCコンサルティング合同会社

Email

藤川 琢哉

パートナー, PwCコンサルティング合同会社

Email

Technology Laboratoryの取り組み

PwCコンサルティングのTechnology Laboratoryは、世界各国におけるPwCのさまざまなラボと緊密に連携しながら、先端技術に関する幅広い情報を集積しています。製造、通信、インフラストラクチャー、ヘルスケアなどの各産業・ビジネスに関する豊富なインサイトを有しており、これらの知見と未来予測・アジェンダ設定を組み合わせ、企業の事業変革、大学・研究機関の技術イノベーション、政府の産業政策を総合的に支援します。

詳細はこちら

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}