生成AIツールによって広がるAIガバナンスの新たな境界線

2023-04-25

要約

  • 生成AIモデルの広範な利用によって生じる特定のリスクや悪影響に対処する規制案を想定しましょう。
  • 開発者やプラットフォーム所有者は、現在では広く受け入れられるようになっている「責任あるAI」およびAIガバナンスの原則を適用できます。
  • 商用ユーザーは、生成AIを用いて作り出した製品に関連する知的所有権についてポリシーを定めるなどして、生成AIを倫理的に使用しなければなりません。

課題

OpenAIが開発した「ChatGPT」や「DALL-E」などの新たな生成AIツールによって、ユーザーが日常的にAIを気軽に使用できるようになるなど、「AI利用の民主化」が進んでいます。

とりわけ、対話型生成AIの「ChatGPT」は、2022年11月の公開直後の5日間だけでも、100万人以上がログインし、その関心の高さがうかがえます。これらの生成AIツールに「何ができるのか」「どのようにコードが書けるのか」「作文が書けるか」などといったことを熱心に検証しているユーザーも多いのではないでしょうか。また、芸術の創作、設計図の作成、パッケージデザインのスケッチ、メタバースにおける仮想世界やアバターの作成、製造誤差のトラブルシューティングなど、高度なアウトプットの生成や、より良い結果を引き出すためのプロンプトを学習しているユーザーもいます。

生成AIが有益な結果をもたらすユースケースはさまざまですが、同時に悪用や悪影響を及ぼす可能性もあります。多くのユーザーがこの新しいツールを繰り返し利用する中で、マルウェアやフィッシングメールの作成、プロパガンダの拡散などにも利用できることが分かってきました。また、これらのツールは、事実ではない回答を真実らしく出力する場合があること、偽情報(デマ)キャンペーンによって形成された見方を強化する場合があることも明らかになりました。

生成AIがますます普及・浸透していくにつれて、それに伴うリスクを軽減するのは誰の責任かという問いからは避けられなくなるでしょう。

規制者の対応

現在、世界69カ国800以上ものAI政策の立案が進められていますが、生成AIモデルに関するリスクをどの程度カバーできるのか、結論が出ていません。例えば、バイデン政権が発表した『AI権利章典』の青写真(Blueprint for an AI Bill of Rights)は、消費者と直接接点があるAIのリスクを組織や開発者が管理する上では役立ちますが、生成AIツール固有の特徴には対応していません。一方の欧州連合(EU)は、人工知能法(EU AI Act)により、生成AI(汎用目的AIシステムに含める)を規制する、具体的には生成AIの訓練に用いるデータを規制する意向を示しています。

現在、施行・提案されているAI規制は、いくつかの具体的なユースケース(データプライバシー、差別、監視など)と具体的な意思決定(雇用、融資、サイト上での推薦、公共事業契約など)を規制対象としており、その大半は、AIが人間および社会に及ぼす潜在的な悪影響を踏まえて制定されています。

これらのツールの新たな用途をユーザーが次々と見つけ続ける限り、新たなリスクも生まれてくるでしょう。生成AIに関連するリスクは前例がなく、今も増加し続けています。例えば、以下のようなものが考えられます。

  • ディープフェイク
  • フィッシングメールおよびソーシャルエンジニアリング
  • マルウェアおよびランサムウェアのコード
  • 盗作
  • 著作権侵害
  • (人を)傷つける、または、有害なコンテンツ
  • 偽情報およびプロパガンダ

具体的な規制がなくても、現在、世界最大の生成AI開発者であるOpenAIなど一部の企業は、積極的にAIガバナンスを実行しています。例えば、ChatGPTが指示に対して差別的な回答を生成したとの報告をユーザーからを受け取ったとき、開発者は偏見を助長する返答を行わないよう直ちに対処します。また、OpenAIは、有害なコンテンツにタグ付けを行い、出力から類似の結果をフィルタリングするため、専用のチームを設けています。

この記事は、目まぐるしく変化し、テクノロジーに影響を与える政策・規制動向に関するPwCのインサイトを取りまとめた『The Next Move』20231月号)が初出です。

*本コラムはPwC USのサイトの「Generative AI tools push new boundaries for responsible AI」を翻訳したものです。

問い合わせ先

藤川 琢哉

パートナー, PwCコンサルティング合同会社

Email

深澤 桃子

マネージャー, PwCコンサルティング合同会社

Email

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}