
AIマネジメントシステムの確立:説明責任を果たすための第三者認証の取得(ISO/IEC 42001)
AIに関するマネジメントシステムを確立するためのフレームワークであるISO/IEC 42001について、解説します。
2021-09-02
経済産業省は、AIガバナンスに関する国内外の議論や動向を踏まえ、現時点で望ましいと考えられる日本のAIガバナンスの在るべき姿を「我が国のAIガバナンスの在り方ver1.1」(以下、「報告書」)として取りまとめ、2021年7月9日に公表しました。また同日、報告書内で言及されていた「法的拘束力のない企業ガバナンス・ガイドライン」として、「AI原則実践のためのガバナンス・ガイドラインver1.0」(以下、「ガイドライン」)がパブリックコメントに付されました。
AIを利活用してイノベーションを促進しようとする企業は、ガイドラインをどのように活用すれば、自社のAIガバナンスを構築し、また向上させることができるのでしょうか。前回のコラム「『AI原則実践のためのガバナンス・ガイドラインver1.0』―解説編」では、ガイドライン策定の背景とその概要について考察しました。今回は「活用編」として、ガイドラインの中で提示されている行動目標と乖離評価例の一部を取り上げ、その活用方法を検討していきます。
なお、本コラムにおける意見・判断に関する記述は筆者の私見であり、所属組織の見解とは関係のない点をあらかじめお断りしておきます。
まず、ガイドラインの狙いと構成をあらためて確認しておきましょう。
ガイドラインの狙いは、AIの社会実装の促進に必要となる「人間中心のAI社会原則」(以下、「AI原則」)の実践を支援することにあります。ガイドラインに法的拘束力はありませんが、AIの開発や運用などに関わる企業などには、ガイドラインを参照するとともに、AI原則の実践に関わる多様なステークホルダーと共通認識を形成し、また共通理解促進のために対話することを通じ、ガイドラインが示す内容について自主的に取り組むことが期待されています。
ガイドラインには「AI事業者が実施すべき行動目標を提示するとともに、それぞれの行動目標に対応する仮想的な実践例やAIガバナンス・ゴールとの乖離を評価するための実務的な対応例(以下、「乖離評価例」)」1が例示されており、本編は「行動目標」「実践例」「コラム」、別添は「行動目標一覧」「乖離評価例」「アジャイル・ガバナンスの実践」から構成されています。それぞれの構成要素については解説編で詳しく説明していますので、そちらをご参照ください。
本コラムでは、AIシステムから得られる正負のインパクト理解について言及している「行動目標(1-1)」および、これに関連する「乖離評価例(1-1のDEF)」を取り上げ、実際の評価と活用方法を検討していきます。本コラムにおいて特にこれらの項目を取り上げたのは、ガイドラインは「環境・リスク分析」から始められており、その中でも「正負のインパクトの理解」はリスク分析において重要であり、「AIガバナンス・ゴールの検討(行動目標 2-1)」にあたって価値あるインプットの1つになるからです。
行動目標 | 実践例(抄録) |
AIシステムを開発・運用する企業は、経営層のリーダーシップの下、AIシステムから得られる正のインパクトだけではなく意図せざるリスク等の負のインパクトがあることも理解し、これらを経営層に報告し、経営層で共有し、適時に理解を更新すべきである。 |
例1
例2
例3
|
1. 企画・設計段階 1-1. 置かれている状況 |
|
評価項目例 |
具体的な項目例 |
D. AIシステム開発者及び運用者は、AIシステムに求められる身体、精神、財産等への悪影響を把握しているか |
例:AIシステム開発者及び運用者は、開発・運用しようとしているAIシステムや類似のAIシステムの身体、精神、財産等への悪影響に関するインシデント事例を調査したか 例:AIシステム開発者及び運用者は、開発・運用しようとしているAIシステムが身体、精神、財産等に与えうる損害の大きさ及び発生頻度を把握しているか 例:AIシステム開発者は、開発しようとしているAIシステムが身体、精神、財産等に影響を与えうる場合、業界等の標準的な実務などに照らして許容されるリスクの評価を行ったか |
E. AIシステム開発者及び運用者は、AIシステムに求められる公平性を把握しているか |
例:AIシステム開発者及び運用者は、開発・運用しようとしているAIシステムや類似のAIシステムの公平性に関するインシデント事例を調査したか 例:AIシステム開発者及び運用者は、AIシステムが利用される国・地域において、想定される利用者全体の一部に関連して、偏見や差別的な扱いやそれらが残存しているとの指摘があるか否かを確認したか 例:AIシステム開発者及び運用者は、AIシステムが利用される国・地域において、想定される利用者全体の一部に関連して、同一又は類似のAIシステムが偏見や差別的な扱いを生み出したり、再現したり、拡大したりしたとの指摘があるか否かを確認したか 例:AIシステム開発者は、可能な場合には、公平性に関して提案されている指標から適切なものを選択し、許容される範囲に関する評価を行ったか |
F. AIシステム開発者及び運用者は、AIシステムに期待されている個人への配慮事項を理解しているか |
例:AIシステム開発者及び運用者は、開発・運用しようとしているAIシステムや類似のAIシステムについて、個人への配慮を欠いたインシデント事例を調査したか 例:AIシステム開発者及び運用者は、AIシステムが多くの断片的な情報を用いて特定の個人の細かい特徴を明らかにする能力があることだけでなく、その能力に対する懸念が示されていることを理解しているか |
活用例の1つとして、行動目標の意義を理解したうえで目標を達成するにあたって、現状のリスク管理態勢や関連するプロセスを念頭に、対応すべき事項を洗い出すために実践例を参考にし、現状を把握することが挙げられます。
例えば、行動目標1-1に関連する既存のプロセスとして、情報システムの企画工程が想定されます。通常、システム開発の企画工程では、システムの目的や概要の検討に加えて開発にかかる期間と費用の概算、費用対効果分析、リスク調査分析が実施されます。AIシステムについても通常のシステム開発と同様に、目的の検討や費用対効果分析を通じて、ビジネス目標への定量的または定性的な貢献度やコスト削減額など、正のインパクトは明確に打ち出されるはずです。この点が不明確である場合、そもそも開発投資に値しないからです。
一方でAIシステムの場合、リスク調査分析は一筋縄ではいきません。AIという新しい技術を導入するにあたっては、技術的なリスクの調査分析は入念に行われると思いますが、AIには「意図せざるリスク」という固有の特徴があり、それらは意図していないものである以上、自分たちで考えることに限界があるからです。
そのためリスク調査分析においては、実践例にも記載されているとおり、「類似するAIシステムのインシデント事案を調査する」「将来的な課題について整理する」「同業他社の経験から得られた情報を活用する」ということが追加で必要になります。なおガイドラインでは、Partnership on AIが2020年11月に公開した「The AI Incident Database(AIID)」やOECDの分類フレームワークの議論などが紹介されており、インシデント事例の調査や負のインパクトの検討に有用です。
AIシステムの開発に際しては、従来のリスク調査分析のプロセスにこれらの調査や検討の経緯、結果を盛り込むことが重要であり、AIシステムの開発企画書などの計画資料に文書化しておくことが肝要です。また、行動目標には経営層への報告と共有が含まれていることから、当該調査や検討結果を経営会議などで報告し、AIシステムによる負のインパクトについて経営層に理解してもらうとともに、AIガバナンス・ゴールの設定の検討や、ゴールが設定済みであれば、その見直しの要否などについて議論してもらうことも望まれます。
なお、これらの調査や検討は一朝一夕に行うことは難しいため、継続的なインシデント事例などの収集ならびに調査、共有する仕組みの整備および運営、そのための人的リソースが必要になります。この点は運営層だけで解決することが難しいので、経営層のリーダーシップが求められます。
乖離評価例は、設定されたAIガバナンス・ゴールからの乖離を評価するためのものなので、その活用方法は明らかです。評価に際して注意しなくてはならないのは、乖離評価例はあくまでも参考例であり、網羅的に記載されているものではなく、各企業などが置かれている個別具体的な状況までは考慮されていない点です。そのため、乖離評価例については、状況によっては不十分なこともあれば過剰なこともあり得るため、採用に際しても必要に応じ、修正や取捨選択が必要となります。
本コラムでは、自社の財務データを収集・分析し、経営上の意思決定に資するようなインプットを提供するAIシステムを自社で開発するケース(以下、「想定ケース」)を想定し、乖離評価における評価項目例の修正や取捨選択の例を検討してみます。
まず、置かれている状況D.「AIシステム開発者及び運用者は、AIシステムに求められる身体、精神、財産等への悪影響を把握しているか」ですが、想定ケースにおいては「身体、精神」への悪影響は考えにくいと思われます。残る「財産等」への悪影響については、例えば、当該AIシステムが実運用された場合に、データ収集などに係る対象業務に与える悪影響と読み換えて、想定されるユーザージャーニーを作成し、データ収集や前処理に係る工数の増加やアウトプットの説明可能性の不足による追加作業の発生状況の把握などを評価対象とすることが考えられます。
また、置かれている状況E.「AIシステム開発者及び運用者は、AIシステムに求められる公平性を把握しているか」は、例えば、公平性を経営上の意思決定に影響を及ぼし得る事象と捉え直し、競合他社が開発している類似システムのAIモデルの出力にどのような傾向があるかを公開情報から精査することや、インプットするデータセットの性質が出力にどのような影響を与えるかを分析していることを評価対象とするのも一案です。
最後に、置かれている状況F.「AIシステム開発者及び運用者は、AIシステムに期待されている個人への配慮事項を理解しているか」は、想定ケースから個人への配慮事項は想定されづらいものの、例えば、考課結果や勤怠情報、経歴などの情報は、意図せずともプライバシーの侵害につながる恐れもあります。そのため、機械学習モデルに投入するデータから個人を特定する可能性のあるデータを削除するといった対応を評価対象とすることがあり得るでしょう。
ガイドラインでも強調されているとおり、行動目標は杓子定規に実施するものではなく、その意義を理解したうえで活用することが重要です。また、実践例や乖離評価例は網羅的ではないため、これらを実施してさえいれば万全というものではありません。しかし、これらを活用することで、自社のAIガバナンスの特徴や現状を明らかにすることができるとともに、AIに係る技術や社会受容の変化に応じて継続的に自社のAIガバナンスを改善する契機となることは間違いありません。最初は手探りのスタートになるかもしれませんが、是非、ガイドラインとともに最初の一歩を踏み出していただければと思います。
1「AI原則実践のためのガバナンス・ガイドラインver1.0」経済産業省 P.3
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20210709_6.pdf
AIに関するマネジメントシステムを確立するためのフレームワークであるISO/IEC 42001について、解説します。
「AI事業者ガイドライン案 別添(付属資料)」について、企業、公的機関、教育機関、NPO・NGOなどの団体がこのガイドラインを具体的にどう活用すべきかを解説します。
日本政府のAI戦略会議は2023年12月21日に「AI事業者ガイドライン案」を公表しました。その意義や背景を考察した上で、企業、公的機関、教育機関、NPO・NGOなどの団体がこのガイドラインを活用するにあたって求められることを解説します。
新たな生成AIツールによって、ユーザーもAIを気軽に使用するようになるなど、「AI利用の民主化」が進んでいます。AIの民主化がビジネスにどのような影響を及ぼす可能性があるのかを解説します。
J-SOX対応業務におけるデジタルツール導入の課題や、生成AIを活用した具体的な統制テストの事例に触れることで、生成AIの効果的な活用法についてのヒントを提供します。
多様なテーマを抱えるサステナビリティの領域におけるデータガバナンス/マネジメントを推進するにあたり、個別最適に陥りデータの全社的な利活用に至らないことが課題とされています。本コラムでは、組織横断的なデータガバナンスが必要な理由、そしてその推進の要諦を解説します。
企業には財務的な成果を追求するだけでなく、社会的責任を果たすことが求められています。重要性が増すサステナビリティ情報の活用と開示おいて、不可欠となるのがデータガバナンスです。本コラムでは情報活用と開示の課題、その対処法について解説します。
クラウドサービスやIoT、AIなどのデジタル技術の発展とともに、新たなセキュリティリスクが生じています。本レポートでは、デジタルサプライチェーンのリスクに焦点を当て、ISMAP(政府情報システムのためのセキュリティ評価制度)を活用した効率的な管理方法を考察します。