【開催報告】第3回 「組織の枠を超えたAIのガバナンスに関する課題と対策」ーAIとDEI研究会

2023-03-24

多くの方々に第3回研究会をご視聴いただきまして、厚く御礼申し上げます。第3回研究会では、組織の枠を超えたAIガバナンスにおけるAI活用の盲点についての課題や対策をディスカッションしました。

第1部の配信では、お2人にご登壇いただきました。

富士通株式会社 AI倫理ガバナンス室室長 荒堀淳一氏からは、「事業者の視点からの報告」として、AI倫理ガバナンス、AIサプライチェーンとその課題について論点を提示いただきました。富士通は「Human Centric(人間中心)」をコーポレートメッセージとして掲げ、ヒトを中心に考えたAI活用を推進し、AI倫理の研究にも力を入れています。現場の担当者に丸投げされがちなAI倫理ですが、富士通では経営層が取り組むべき課題であると考え、AI倫理の審議結果は取締役会に共有されています。

「AIサプライチェーン」は既存のデータサプライチェーンにAI実現のための要素を加えたものですが、現時点では特に新たに考慮すべき法的要素はありません。しかし将来的には、精度・セキュリティ・公平性を含むAI固有の監査が必要であると考えられます。今後の論点としては、AIの品質保証やAIの運用時の精度の低下への対応、AIベンダーのコントロールを含むサプライチェーン契約といった課題が挙げられます。

法律事務所 LAB-01 代表弁護士 齋藤友紀氏からは、企業の現場にAIガバナンスを落とし込むにあたっての課題、AI開発の際に委託先などが存在するケースのマルチステークホルダーの問題についてお話しいただきました。損害賠償リスクにつながるような法律要件を満たさなくても、倫理的に非難される行為を行った場合は市場評価リスクが付きまとうため、企業の現場へのAIガバナンスの認識付けは重要とのことでした。AIガバナンスを現場に落とし込む際には、インシデントが発生したケースを想定し、そこから逆算して考えることが重要であり、「十分な注意を払ったか」「十分な注意を払ったことを説明できるか」といった点が要点として挙げられます。

AIの開発を第三者のベンダーに委託する場合、そのベンダーにAIガバナンスを確認する必要がありますが、現時点ではあまり具体的な議論がされていません。インシデントが発生した際に各ステークホルダーが負う責任の範囲や、過失の説明責任の所在など、回避したい結果から遡って考えるべきです。AIガバナンスはゴールではなく、インシデントを回避するための手段と考えます。

第2部は東京大学未来ビジョン研究センターの江間有沙准教授リードのもと、第1部の配信内容を基にディスカッションを実施しました。

「AIの管理」というと、モデルやシステムの精度や標準について言及するケースが多いですが、責任の在処やAI倫理の側面にもフォーカスすべきです。日本国内においてAIガバナンスは、ソフトローにより統制されています。そのため、取り組み方は企業に一任されているところがあり、欧米と比較すると取り組みが進みにくい状況にあるのが現状です。一方欧州では当局の対応が厳しく、EUを中心に企業の取り組みが進んでいることから、日本企業が欧米のクライアントとビジネスを行う場合には相応の対応が求められます。そのため、今後は日本独自の標準の確立を目指すよりも、国際的標準を考慮したAIガバナンスを構築する必要があります。

ビジネスの現場でインシデントリスクを考えるとき、「誰に責任を負わせるのか」という議論によく発展します。しかし、リスク対応を厳しく定義し、合意するまでビジネスを動かせないとなると、イノベーションは確実に後れを取ってしまいます。米国企業では、そのようなリスクからインシデントが発生した際の損害よりも、イノベーションによって得られる利益の方が大きいと判断し、リスク対応が万全でなくとも、それを承知の上でビジネスを進めるとの経営判断も多く見られます。中にはAIを万能と誤解してしまっている経営者もいるため、適切な経営判断を下すためにも、経営者も含めたステークホルダー(特に管理者)のリテラシーを高めることは急務と言えます。

インシデントが起きてしまったとき、「発生を予見可能だったか」「予見できたとして、回避することは可能だったか」が問われます。予見できなかった場合の責任は限定的なものになりますが、事後検証の際、「予見できたのでは」との疑義が生じるケースが多いです。これは、予見できたかどうかに関わらず、レピュテーションリスクにつながりかねないので、注意が必要です。対応策に正解はありませんが、自社内の標準を策定することがその1つとなるでしょう。ただ、個人情報保護に関するルールが各地でいくつも存在し、地域間で融通しづらくなった「2,000個問題」のように、ルールが乱立することでインシデント発生時の対応に遅れが生じる可能性も高いため、国内の企業で合意できるような標準を設けることが望ましいと考えます。外部ベンダーを管理するという観点で言うと、SOCレポートを活用している企業もありますが、コストも時間もかかってしまう可能性が高く、あまり奨められません。少しずつ、社会の同意を得ながら進めていくことが望ましいです。社会実装されたものにインシデントが発生した場合、原因を究明できるまでは全ての稼働を止めるということになりますが、それでは経済活動が止まってしまうので、運用の設計をしっかり作りこむことが重要です。データやセキュリティ、プライバシーなど、既存のガバナンスですでに議論されている議題もあるので、整合性を十分に考慮する必要があります。

昨今、大きく注目されている生成系AIは、これまでAIガバナンスで議論されてきたAIとは異なり、議論されていない要素が含まれているので、改めて議論すべきと考えます。2月に開催を予定している第4回研究会では、生成系AIに焦点を当てた議論を予定しております。

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}