{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
2024-02-15
前回のコラムでは「AI事業者ガイドライン案」*1の本編について、ガイドラインの策定背景と概要を解説し、その意義を考察しました。今回のコラムでは「AI事業者ガイドライン案 別添(付属資料)」(以下、別添)について、企業、公的機関、教育機関、NPO・NGOなどの団体がこのガイドラインを具体的にどう活用すべきかを、いわば「実践編」として解説します。
なお、総務省および経済産業省は、2024年1月20日〜2月19日までの期間において、「AI事業者ガイドライン案」の意見公募*2,3(パブリックコメント)を実施し、意見公募の内容を反映し、「AI事業者ガイドライン」第1.0版が取りまとめられる予定です。本コラムはあくまで「AI事業者ガイドライン案」をもとにした解説であり、今後内容が変更される可能性もあることをご承知おきください。
「AI事業者ガイドライン案」の本編は「どのような社会を目指すのか(Why)」と「どのような取組を行うのか(What)」を記載したものであり、別添はそれを受けた上での「どのようなアプローチで取り組むのか(How)」が記載されています。
本編が35ページだったのに対して、別添は150ページ以上と、大きな分量になっています。ただし、それでもすべてのアプローチが網羅的に記載されているものではありません。また、記載されている内容をすべて行わなければならないというものでもありません。企業や団体が自組織のリスクなどを見極めながら、必要な対策を実施するというリスクベースに基づいた使い方が必要となります。
以下で、別添の概要を見ていきましょう。
A.AIに関する前提
B.AIによる便益/リスク
別添1はAIシステムやサービスの例が書かれているパートと、AIによる便益やリスクなどが書かれているパートに分かれています。本編でもAIシステムやサービスについて記載されていましたが、別添では、例示を多用し、より具体的に記載されています。これらの具体例を見ながら、AI開発者、AI提供者、AI利用者、それぞれの立場でどのように自らの役割を担うのかを確認することができます。
AIの活用により多くの便益が期待されますが、それに伴うリスクも存在します。本編では「各主体に共通の指針」として人間中心や安全性など、10の項目が掲げられていました。別添ではこれらの共通の指針が策定された前提となるリスクを、具体的な事例とともに確認することができます。これらのリスクを意識しながらどのように指針に準拠していくべきなのか、そのためには何をすべきなのかをきちんと考える必要があります。
また、AIの技術的発展やユースケース(活用方法)の変化によって、当然ながらリスクも変化していくことが想定されます。それに応じて、共通の指針も変化することもあり得ます。これも含めて、「Living Document」として適宜、更新を行うものと期待されています。
A.経営層によるAIガバナンスの構築とモニタリング
B.AIガバナンスの構築に関する実際の取組事例
別添2はガバナンスに関して記載されていますが、かなりのボリュームが割かれています。内容は、経済産業省主導の「AI原則実践のためのガバナンス・ガイドラインver1.15」(2022年)*4をベースとしながらも、国内外ガイドラインやISO、AIに関する技術動向など、昨今のトレンド要素を加味してアップデートされています。
「A.経営層によるAIガバナンスの構築とモニタリング」が表している通り、「経営層による」と責任の所在を明確化している点が重要です。ガバナンスとはまさに経営責任であり、経営層がコミットしないと成し得ないのです。本編においても「経営層がリーダーシップを発揮する」とは触れられていましたが、別添でも繰り返し記載し強調されています。
例えば、別添2の「5.評価」においては、経営層のリーダーシップの下、「継続的改善に向けた評価の重要ポイントを、経営層が自らの言葉で明示」することや、「AIマネジメントシステムの設計や運用から独立した関連する専門性を有する者を割り当て」ること、またマネジメントが適切に機能しているかのモニタリングや改善の実施が必要であることが述べられています。
また、AIに関わる社会的な信用創造と説明責任を果たすためには、AIを監査/認証することも考えられます。AI監査/認証の整備を検討する際には、「位置づけ」「対象」「管理基準」「属性基準」「リスクベースアプローチ」「評価基準」「報告とフォローアップ基準」「開示基準」などの検討が必要となるでしょう。これらの事項の検討には、AI事業者のみならず当局や業界団体等のステークホルダーを含めた議論と制度設計が求められます。なお、外部監査や認証を実施しない場合には、下図④~⑦の論点については、AI事業者が主体となって検討することになります(「図表2:AI監査/認証の関係者および論点」参照)。
また、別添2以降、実践のポイントや仮想例、コラム(Tips、実在する例)などが多用されていることにも注目したいです。仮想例では、ベンチャー企業や大手企業など規模に応じた事例が紹介されており、自らの立場に当てはめて読み進めることができます。このように、理解を助ける工夫が随所に施されていることも別添の大きな特徴となります。
別添3は「AI開発者」、別添4は「AI提供者」、別添5は「AI利用者」と、本編で記載されている主体者ごとに、本編の記載事項および共通の指針が解説されています。
それぞれの主体者における留意事項を遵守するために「どのようなアプローチで取り組むのか(How)」の理解を助けるために、具体的な手法(Reference)を確認することができます。いずれの章においても、前半部分では本編の記載内容に沿って、各主体が特に重視するべき事項に対して、プロセスに当てはめた具体的な手法が記載されています。また、後半部分では、本編に記載はされていないものの、「共通の指針」の中で特に重要な内容について、具体的な手法が記載されています。
なお、別添3「AI開発者向け」では、本編と同様に、広島AIプロセスを経て策定された「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」*5も引用されています。
本編では第5部までの構成となっていますが、別添6以降には、本編では取り上げられなかった各種参考資料が多分に盛り込まれている点も特徴的です。これらは、本編および別添を実際に利用していく際に必要となるTipsやツールとなり、非常に有用なコンテンツとなっています。
が用意されていて、今後も「Living Document」として拡充されていくことが期待されます。
※現時点では公開されていないが、今後作成予定とされている
「どのようなアプローチで取り組むのか(How)」を検討するうえで、チェックリストは非常に有効ですが、チェックリスト自体は汎用性が高いため、実際に利用する際には、別添1に記載されている「AIシステム・サービスの例」や「AIによるリスク」などを参考にしながら、ワークシート(別添6 チェックリストの右半分(オレンジ箇所))などに落とし込むことが重要です。企業や団体は作成したワークシートを積極的に展開し、政府が別添を更新し品質を高めていく、まさに「Living Document」として、このようなポジティブなPDCAを回していくことが求められているのだと思います。
それでは実際に、どのようにチェックリストからワークシートを作成していくか、記載されている例をもとに、具体的なアプローチを紹介したいと思います。
AI開発者に関する重要事項として、「データ前処理・学習時」のプロセスにおける「D-3) i. データに含まれるバイアスへの配慮(公平性)」が記載されています。そこで、「チェックリスト(AI開発者向け)」における当該項目を確認してみると
a. 学習データ、モデルの学習過程によってバイアスが含まれうることに留意し、データの質を管理するための相当の措置を講じたか?
b. 学習データ、モデルの学習過程からバイアスを完全に排除できないことを踏まえ、必要に応じて、単一手法ではなく多様な手法に基づく開発を並行して行ったか?
と記載されています。このままでは具体的に何をすれば良いのか(どのような状態になっていればチェックとして良いか)がやや不明瞭だと思われます。よって、この内容をより一層具体化し、ワークシートに落とし込んでいく必要があります。そのためには、具体的なAIシステム・サービスに対して検討を行うことが重要です。
ここでは、別添1でも紹介されている「採用AI」を取り上げてみましょう。採用AIでは、応募者情報を取り扱いますので、公平性という観点においては、応募者の属性(特定の国/地域/人種/性別/年齢)によって不公平な予測結果を招いていないかを確認することが重要となります。例えば、男性と女性で採用率に偏りが発生していないか、外国籍の応募者の採用率が著しく低くなっていないか、などがあげられます。これらのバイアスを回避するためには、学習データ自体に偏りが発生していないか確認することが重要です。グローバルへの事業展開に伴い、近年になって外国籍の応募者の積極採用を始めたということであれば、当該データが乏しいため、採用AIでは外国籍の応募者を公平に評価することはできないでしょう。よって、これに対するAI開発者の具体的な取組内容として、「AIモデル開発・アップデート時に学習データにおける著しい偏り(特定の国/地域/人種/性別/年齢)がないかを評価する」という項目が導かれます。その際に、上記の例でもわかる通り、「事業戦略等を考慮して」などが含まれるとなお良いかもしれません。ここまで具体的な内容に落とし込めれば、自らの取組内容をチェックすることが可能になるのではないでしょうか。
また、上記はAI開発者の例でしたが、その採用AIを利用するAI利用者においてはどうでしょうか。AI利用者における公平性観点には、「採用AIを活用する際は、出力された結果を鵜呑みにするのではなく、応募者の属性によって不公平な予測結果を招くことがないよう、結果を通達する前に必ず人間の判断を介在させる」という項目が導かれるかもしれません。
このようにチェックシートの内容を基としながら、各主体が実際に行動に移せる粒度でワークシートに落とし込んでいくことが重要となるのです。
別添には、「どのようなアプローチで取り組むのか(How)」が具体例とともに非常に多く記載されています。一方で、アプローチを網羅的に記載することは現実的ではありません。また、AIの技術的発展や今後のユースケースによっては、記載されている例が陳腐化してしまうことも想定されます。そのため、企業や団体は、当該ガイドラインを積極的に活用し、ワークシートやベストプラクティスを共有し合い、まさに「Living Document」としてアップデートし続けることが重要であり、その結果、日本におけるAIエコシステム全体を活性化していく一翼を担う必要があるのです。
AI事業者ガイドラインが、日本のすべての事業者におけるAI共通言語となり、企業横断・業界横断でのベクトルを揃えることで、日本全体のイノベーション創出や競争力強化を加速する起爆剤になることが期待されています。
(注釈)
*1 内閣府 AI戦略会議 「AI事業者ガイドライン案」
https://www8.cao.go.jp/cstp/ai/ai_senryaku/7kai/13gaidorain.pdf
*2 「AI事業者ガイドライン案」の意見公募手続(パブリックコメント) 経済産業省
https://www.meti.go.jp/press/2023/01/20240119002/20240119002.html
*3 「AI事業者ガイドライン案」に関する意見募集 総務省
https://www.soumu.go.jp/menu_news/s-news/01ryutsu20_02000001_00009.html
*4 「AI原則実践のためのガバナンス・ガイドラインver1.1」 経済産業省
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20220128_1.pdf
*5 「高度なAIシステムを開発する組織向けの 広島プロセス国際行動規範」 内閣府
https://www8.cao.go.jp/cstp/ai/ai_senryaku/6kai/koudoukihan.pdf