{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
2023-03-13
広く社会で使われるようになったAIですが、関連するインシデントも多発しています。こうしたリスクをコントロールするため、各国・地域ではさまざまな法規制が導入されています。
本稿では、AIがもたらすリスクや各国・地域の法規制の現状についてまとめました。
AIの活用は、世界中であらゆる業界へと広がっています。PwC Japanグループが実施した調査「2022年AI予測(日本)」によると、日本企業においてもここ数年でAI活用の明確な進展が見られ、AIを業務に導入している企業の割合は2022年には58%(前年比15ポイント増)にのぼっています。
それと同時に、AIが原因となったインシデントも世界的に増加傾向にあり、AIの意思決定による倫理違反、人種や性別などによる差別的バイアスや公平性の欠如、プライバシーやセキュリティの侵害といったリスクを回避するための取り組みが不可欠となっています。また、AIによる複雑な意思決定の中には、その過程がブラックボックスになりやすいものあるため、説明責任(アカウンタビリティ)を果たす必要があります。そのためにも、透明性、説明可能性や追跡可能性を考慮し、教育・リテラシーやモニタリング・監査も含めた適正な利用を担保していくことが求められています。
なお、AIの利活用を推進し、国際競争力や企業間における競争優位性を確保するためにはAI倫理だけでなく、AIと学習データの質(適正な学習)といったAIの性能そのものを担保することや、AI同士の連携も視野に入れて取り組むことが不可欠となります。
AIリスクのコントロール実現に向けたルールとしては、主に以下の3つがあります。
欧米では、2021年にEU(欧州連合)がリスクベースのAI規制の枠組案を提示し、米国のFTC(連邦取引委員会)がAI規制による摘発を開始するなど、法規制の強化が進んでいます。
日本でも、経済産業省が「AI原則実践のためのガバナンス・ガイドラインver1.1」(以下、「AIガバナンス・ガイドライン」)を公表し、AI活用企業が実施すべき行動目標や、ゴールとの乖離を評価する実務的な対応例が示されました。そして政府は企業に対し、リスクベースのアプローチによるAIガバナンス態勢構築の検討を求めています。
|
日本 |
米国 |
欧州 |
他 |
原理原則 |
|
|
|
|
各国政府が定める中間ルール |
|
|
|
|
こうした状況のもと、企業はAIの開発や利活用にリスクが伴うことを十分に理解し、AIの信頼性と説明可能性を担保しなくてはなりません。
AIガバナンスは、企業のAI活用推進をAI固有の観点を踏まえて下支えし、達成すべきゴールの実現と投資対効果の最大化をサポートする取り組みです。AIガバナンスの実現に向けて、AIの開発および利活用に関わる「安全性リスク」「制御リスク」「社会的リスク」「経済リスク」「倫理リスク」「性能リスク」の6つを軸に幅広くAIリスクを特定し、コントロールする必要があります。
PwCでは、AIガバナンス・ガイドラインと同様のリスクベースアプローチに基づき、企業の組織上の課題から個別のユースケースにおける課題まで、ガバナンスゴール実現の妨げとなるボトルネックを抽出し、それぞれの状況に合わせたアプローチで解決を支援します。