第14回 生成AIを巡る「LLM」元年の国際動向── 英国のコーポレートガバナンス改革との関連において

  • 2024-02-26

はじめに

連載「第12回 英国コーポレートガバナンス・コード改訂に関するFRCの協議――提案された変更の概要」では、2023年3月に公表された人工知能(AI)に対する規制に関する英国政府(科学・イノベーション・技術省:Departmentfor Science, Innovation and Technology, DSIT)文書への質問も、英国財務報告評議会(FRC)協議事項に含まれていることを指摘しました。このとき英国政府はAIに関する白書(White Paper)"A pro-innovation approach to AI regulation"を発表し、AI対応国としてのビジョンを定めました。この白書の中で英国政府は、既存の規制当局が次の5つの価値観に焦点を当てた分野横断的な原則に支えられた、新たなAI規制枠組みの導入を提案しています。

  • 安全性、セキュリティ、堅牢性
  • 適切な透明性と説明可能性
  • 公平性
  • 説明責任とガバナンス
  • 異議申し立てと救済

具体的には、FRCはコーポレートガバナンス・コードに関する協議の一環として、政府がAI規制枠組みを導入する場合、AI領域の進歩を支援するためにコードの変更が必要かどうかについて、利害関係者に次のような質問を出し、意見を求めました。

Q26:AIに関する政府の白書を支持するために、コードの修正や追加のガイダンスが必要だと考える分野はありますか?

もはやAIはコーポレートガバナンスの議論にも入り込んでおり、テクノロジー専門家に任せるのではなく積極的な対応が求められます。本稿では、AIを巡る最近の動向として2023年10月8日から12日に京都で開催されたインターネット・ガバナンス・フォーラム(IGF)主催の会合「IGF京都2023」での国際的な議論を中心に紹介し、翌11月に英国で開催されたAI安全性サミットにおける日本政府の対応についても最後に触れます。

なお、本稿における意見にわたる部分については筆者個人のものであり、所属するPwC Japan有限責任監査法人の公式見解ではないことを申し添えます。本稿は2023年11月30日現在の情報をもとに記述しています。

1 IGF京都2023とは

IGFは、インターネットに関連する公共政策の問題について議論するために、利害関係者を集めたグローバルなマルチステークホルダープラットフォームです。このフォーラムは、「情報社会に関するチュニス・アジェンダ」のパラグラフ72に定められた任務に沿って、国連事務総長によって招集されています。その任務は2015年に10年間更新されました。

2023年、IGFは日本政府の主催により京都で第18回年次会議をハイブリッド形式で開催しました。今回は「Internet We Want – Empowering All People –(私たちの望むインターネット −あらゆる人を後押しするためのインターネット−)」という包括的なテーマを掲げ、インターネットへのアクセスと人権から、インターネットの断片化、サイバーセキュリティ、AI、新興テクノロジーに至るまで、最も差し迫ったインターネットとデジタル政策の複数の問題について議論がなされました。

IGF京都2023でのセッション議題は、IGFマルチステークホルダー諮問グループ(MAG)が決定します。MAGは政府、産業界、技術コミュニティ、市民社会などの全てのステークホルダーグループから国連事務総長によって任命されたメンバーで構成され、第18回年次IGF会議の計画を支援しました。

また、IGFでは2022年8月に、「インターネットの父」とも言われる計算機科学者のヴィントン・サーフ博士を議長とする「IGFリーダーシップパネル」を発足させました。IGFリーダーシップパネルは、フォーラムを強化し、その認知度を高めるためのアプローチについて意見を交換するためにIGF京都2023で直接会合しました。

次章ではIGF京都2023で提起された論点を要約した文書に基づきまとめています。

2 議論された主要テーマ

IGF京都2023のセッションは、以下の8つの補助テーマに基づいて編成されていました。

  • AIと新興テクノロジー
  • インターネットの断片化の回避
  • サイバーセキュリティ、サイバー犯罪、オンラインの安全性
  • データガバナンスと信頼
  • デジタル格差と包括性
  • グローバルデジタルガバナンスと協力
  • 人権と自由
  • 持続可能性と環境

セッションでの議論などに基づいて作成される、IGF年次会議の成果物が「IGF Messages」(以下、メッセージ)です。メッセージは、主要なインターネットガバナンスとデジタルポリシーの問題に関する最新の考え方について、意思決定者にハイレベルの概要を提供することを目的に発表されます。IGF京都2023では300以上のセッションが開かれ、各セッションの主催者は議論の中から重要なポイントや意見を取りまとめ、メッセージの編集に貢献するよう求められました。

一連のメッセージ草案はIGF事務局によって厳選され、コミュニティのレビューのために公開されています。以下ではAIに関する最初の補助テーマを、メッセージ草案をもとに紹介します。

3 「AIと新興テクノロジー」について

(1)テーマ

AIは生産性を向上させ、経済・社会・文化の変化も加速させる革新的な技術です。このテクノロジーは現在も急速に発展しており、その影響が及ばない分野を見つけることはすでに困難になっています。AIは成長機会だけではなく、新たな課題ももたらしています。ここ1年間だけを見ても、生成AIと関連するサービスの登場は、ビジネス分野だけでなく、市民の日常生活にも入り込み始めています。

多くの人々は、AIテクノロジーが短期的および長期的に人間社会や環境に与える影響を懸念しています。AIが安全かつ責任を持って開発および使用されるようにするには、世界的な関係者の対話と協力が必要です。AIテクノロジーの影響は一国内には収まらず、国境を越えていきます。しかしながら、今のところAI政策の議論、開発、分析のほとんどがグローバルノースに焦点が当てられています。グローバルサウスにとっての機会と影響はもっと詳細に分析され、優先順位を付けられるようにする必要があります。

(2)世界へ発信されたメッセージ

①世界的な協力

まず、全ての国と地域の政策立案者、技術者、投資家、企業、市民社会、学界の幅広い意見を活用した世界規模の協働を通じてのみ、AIが全ての人に利益をもたらす可能性が生まれます。ハイレベルのグローバルガバナンス対話と精選された専門家グループは、全ての人に開かれた包括的な対話とのバランスを取る必要があります。

また、取り組みの断片化や一貫性のない政策アプローチを防ぐために、グローバルなAI政策とIGFおよびイニシアチブの間で共同する必要があります。ベストプラクティスの開発と共有が重要であり、グローバルサウスからの視点も含める必要があります。グローバルサウスの政府は、接続性、デジタルリテラシー、サイバーセキュリティなどの構成要素に基づいた政策と戦略を策定し、自国内でのAIの責任ある安全な開発をさらに推進する必要があります。

②ガバナンス

AIその他の新興テクノロジーは、人権、民主的価値観、法の支配を尊重する方法で開発および利用されるべきです。AIシステムは、包括的でプライバシーを尊重した設計でなければなりません。AIテクノロジー自体を開発するプロセス、およびAIポリシー、ガバナンスの枠組み、規制は透明性が高く包括的である必要があります。

日本政府が開始した「広島AIプロセス(G7関係者が参加して生成AIについて議論する枠組み)」を含め、世界的なAI原則の策定においてかなりの進歩が見られます。今こそ、倫理的なガイドラインと原則の開発から、AIガバナンスの運用に移行することが求められます。

AI原則を責任ある措置と効果的な実装に結び付けるには、参加国の協調的な努力が必要です。また、世界的に共有されている価値観を運用するための努力は、異なる地域や文化的背景にも容易に適応できる柔軟性を備えていなければなりません。

AIの標準、ガイドライン、自己評価メカニズム、行動規範は重要であり、効果的なAIガバナンスには規制も必要です。AI開発ライフサイクルにおける全ての分野の責任と説明責任を明確にし、適切な安全対策を定義することが急務です。

監視のメカニズムを強化し、すでに合意されたAI政策と計画について、その実施と影響を追跡することが不可欠となります。

③人権と開発

社会全体へのAIの普及は、人々に力を与え、人々の連携を強めることにもつながりますが、差別やデジタル格差をさらに深める可能性もあります。AIイノベーションは人権と法の支配を遵守するものでなければなりません。

AIが安全かつ責任を持って活用されれば、世界社会がSDGsの達成に向けて前進するのに役立ちます。私たちはこの点に希望を見出し、この新しいテクノロジーを採用して、直面している複雑な問題に対処する必要があります。同様に、AIの明るい未来だけに夢中にならず、AIに関する議論と応用を世界的および地域的な現実に根付かせるように注視する必要があります。

AIテクノロジーの開発には、コミュニティや多様な背景を持つ人々も巻き込むことが重要です。私たちはAIに関連する技術的、社会的、法的な専門知識を身につける必要があります。AIの概念と用語についての理解が共有されてこそ、協力関係が強化されるのです。

④生成AI

生成AIを活用すれば、生産性を向上させ、イノベーションを加速できることがわかっています。また、急速に発展しているテクノロジーがグローバルサウスを含む世界中の人権と民主主義制度に影響を与えるという問題に適切に対処し、優先順位を付ける必要があります。

政策立案者は、AIの影響を理解するために包括的なアプローチを取るべきです。そのために、生成AIの影響を受けやすいグループ(例えば、AIに仕事を奪われるリスクがあるグループ)を、この新しいテクノロジーを管理するための議論に積極的に参加させる必要があります。

すべてのステークホルダーは事実を保護し、保存するために協力する必要があります。ディープフェイクなどの生成AIを利用した偽情報や誤情報は、認識されている現実を曖昧にしたり変えたりする可能性があります。特に選挙に関しては、信頼できる情報を広めることが不可欠です※1

さらに、AIによって生成されたコンテンツを検出および識別するテクノロジーの開発を加速することが重要です。これらの取り組みは、ディープフェイクや生成AIに関連するリスクを軽減し、責任あるデータの使用を促進し、より安全で信頼できるデジタル環境を構築することに役立ちます。AIが生成したコンテンツにラベルを付けることで、消費者はより多くの情報に基づいた意思決定や選択ができるようになります。そのためには、革新的かつ学際的なアプローチが必要です。

4 AI安全性サミット

11月2日、英国政府の主催による「AI安全性サミット」※2が開催されました。以下、日本政府(外務省)の発表に基づいて概略を紹介します。

サミットには日本から岸田文雄内閣総理大臣がオンライン形式で参加し、生成AIを始めとする最先端AIシステムは、極めて大きな潜在性を有すると同時に、リスクもはらんでおり、人類の英知を結集して、適切なAIガバナンスを国際的に確立することが重要である旨を述べました。

また、日本がG7議長国として2023年5月のG7広島サミットで立ち上げを主導した「広島AIプロセス」において、生成AIを始めとする高度なAIシステムの国際的なルール作りに取り組んでおり、それがグローバルなAIのルールの共通の基盤となると確信していると述べました。さらに、10月30日に広島AIプロセスに関するG7首脳声明を発出し、生成AIを含む高度なAI開発者向けの「広島プロセス国際指針」と「広島プロセス国際行動規範」に合意したことを紹介しました。また、2023年末にかけて「広島AIプロセス包括的政策枠組」の策定に向けた作業をさらに加速させるとともに、広島AIプロセスをさらに前進させるための作業計画も2023年末までに策定する予定である旨を述べました。

今後、G7以外の国・地域の政府や民間セクター等との協議も進め、幅広い意見を取り入れて、グローバルサウスを含む国際社会全体が、安心・安全・信頼できる高度なAIの恩恵を享受し、さらなる経済成長や生活環境の改善を実現できるような国際的なルール作りを牽引していきたい旨、また、広島AIプロセスはAI安全性サミットの取り組みとも相互補完的であると考えており、引き続き緊密に連携していきたい旨を述べました。

5 おわりに

以上に述べたとおり、2023年は特に生成AIを巡る目覚ましい技術発展の流れを背景として、春の広島サミットから国際政治の舞台において各国の政府首脳も巻き込んでの主導権争いや駆け引きが活発に展開されてきました。2022年は画像生成AI元年と言われたのに対し、2023年は自然言語処理を扱う「大規模言語モデル(Large Language Models:LLM)元年」とでも呼べる1年であったと思います。

また、AIガバナンスは単に政府や役所のレベルにとどまらず、企業経営者の関心事ともなり、同時にモニタリング機関である取締役会やガバナンス機関においても徐々に検討や議論がなされるようになってきています。本稿冒頭で述べた英国の例はまさにそうした動向を裏づけるものとなっています。

2023年11月、英国FRCが公開したコーポレートガバナンスに関する最新年次レビュー報告書によれば、企業のおよそ49%がレポートの中でAIについて言及しており、そのうちのいくつかの企業は、AIの加速的な進歩を新たなリスクと述べています。ほとんどの企業はオペレーションの文脈でAIについて議論しており、AIのリスクを識別している企業は限定的でした。一部の企業はAIの倫理とリスクに注目しました。

同報告書は、社内でのAIの利用やそのためのアプローチについて、取締役会がどのように通知され、また監督したかについての議論は見られなかったと指摘しています。

取締役会が社内でのAIの責任ある開発と利用、およびそのガバナンスについて明確な見解を持つことは重要です。取締役会は、AIの可能性だけでなく、人々やより広範な社会に対するリスクも考慮する必要があります。このため、取締役会はトレーニングを通じて、あるいは経営陣や外部の専門知識を活用して、AIに関する知識を高める必要があります。

新しい論点であるAIガバナンスが、従来からのコーポレートガバナンスとどのような接点を保ちながら論じられていくか、注目していきたいと思います。

参考文献

FRC(2023)Corporate Governance Code Consultation
https://www.frc.org.uk/consultations/corporate-governance-code-consultation/(2024年1月15日アクセス確認)

FRC(2023)Review of Corporate Governance Reporting
https://media.frc.org.uk/documents/Review_of_Corporate_Governance.pdf(2024年1月15日アクセス確認)

DSIT(2023)A pro-innovation approach to AI regulation
https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper(2024年1月15日アクセス確認)

世界情報社会サミット(World Summit on the Information Society:WSIS)(2005)Tunis Agenda for the Information Society(情報社会に関するチュニス・アジェンダ)
https://www.itu.int/net/wsis/docs2/tunis/off/6rev1.html(2024年1月15日アクセス確認)

Internet Governance Forum (2023) Draft IGF Messages, the 18th annual Internet Governance Forum
https://www.intgovforum.org/en/filedepot_download/300/26576(2024年1月15日アクセス確認)

Internet Governance Forum (2023) Draft IGF 2023 Summary, Eighteenth Meeting of Internet Governance Forum
https://www.intgovforum.org/en/filedepot_download/300/26575(2024年1月15日アクセス確認)

外務省(2023)「広島AIプロセスに関するG7首脳声明」2023年10月30日
https://www.mofa.go.jp/mofaj/ecm/ec/page5_000483.html( 2024年1月15日アクセス確認)

外務省(2023)「岸田総理大臣の英主催AI安全性サミットへの参加について」2023年11月2日
https://www.mofa.go.jp/mofaj/ecm/ec/page5_000484.html( 2024年1月15日アクセス確認)


※1 トラストを巡る研究については、連載「第13回 トラスト研究の現場から──情報科学の視点:研究開発戦略センターによる学際研究をもとに」を参照してください。

※2 英国主催AI安全性サミット:AIの急速な発展を踏まえ、AI技術の安全な開発と使用に関し、11月1日~2日に英国が主催した初の会合。最先端AIのリスクの理解の促進を図り、国際的に協調した行動を通じて、リスクを軽減する方途等について議論。G7を含む各国首脳・閣僚級のほか、国際機関、主要AI企業、有識者等が参加。出所:外務省(2023)「岸田総理大臣の英主催AI安全性サミットへの参加について」


執筆者

PwC Japan有限責任監査法人
基礎研究所 所長
山口 峰男