{{item.title}}
{{item.text}}
{{item.text}}
生成AIの進化は、私たちの働き方やビジネスの構造を急速に変えつつあります。
もはやAIは質問に答えるだけの存在ではありません。今注目されているのが、「AIエージェント(Agentic AI)」です。
AIエージェントは、必要に応じて外部システムに接続し、他のAIと連携しながらタスクを自律的に実行することもあります。
その登場は、利便性を飛躍的に高める一方で、「誰が行動しているのか」「誰の意思で実行されたのか」というアイデンティティ管理の前提を根本から問い直しています。例えば、人の代わりにAIが「取引先に見積を送る」「社内システムに申請を登録する」「クラウド上の設定を変更する」を行うなどの操作がされた場合、もしそのAIが“誤って”違う取引先に送信したり、“想定以上の権限”で設定を変えてしまったりしたら、誰が何を許可し、誰が責任を負うのでしょうか。
本稿では、AIエージェントとは何か、その登場がもたらすアイデンティティ管理上の新たなリスク、そして求められる対応の方向性について整理します。
注:
AIエージェントに関するアイデンティティ観点でのリスクや統制の枠組みは、いまだ国際的にも議論の途上にあります。技術標準や法的責任の範囲について明確な合意は形成されておらず、本稿で示す内容は執筆者チームが現時点で観察している議論や標準化動向をもとに整理したものです。今後の技術・制度・規制の進展に応じて、対応のあり方は変化していく可能性があります。
近年のAIエージェントは、従来のユーザーとテキストで「情報提供」や「提案」の受け答えだけを行う対話を中心としたAI(対話型AI)とは異なり、対話に加えてツールやサービスを使って検索、ファイル操作、登録等の一連のタスクまでをこなします。
したがってAIエージェントとは、「ユーザーの意図や目的を理解し、自ら意思決定を行い、外部リソースや他のAIを操作して目的を達成する自律型AI」と言えます。
この「行動主体」としての性質こそが、対話型AIとの決定的な違いです(図表1・2)。
図表1:対話型AIと自律型AI
図表2:対話型AIと自律型AIの違い
|
対話型AI |
自律型AI |
役割 |
情報生成・分析・推奨 |
意思決定と実行の一体化 |
動作原理 |
ユーザー入力に対する応答 |
状況を解釈し自律的に行動 |
範囲 |
単一ドメイン |
複数ドメイン |
制御性 |
決定論的(想定内の動作) |
非決定論的(動的) |
従来のAIは、極端に言えば「社員=操作主体」であることを前提に設計されてきました。ところがAIエージェントの登場により、操作主体が「人」から「人が指示したソフトウェア」へ広がります。これは、入退室管理で例えるなら「社員証だけ管理していたら、いつの間にか“社員証を預かったロボット”が建物中を歩き回るようになった」という状態です。
AIエージェントの自律性は業務効率を飛躍的に高める一方で、従来のID・アクセス管理(Identity and Access Management)が前提としてきた「人を起点とする管理モデル」を根本から変えつつあります。人間の作業を代行・自動化するタイプのAIエージェントであれば、これまで通り「人間のIDをAIエージェントに使わせる」形になるかもしれません。この場合、既存のアイデンティティ管理の仕組みをある程度適用することができます。
一方で、AIエージェントの活用を前提に業務プロセスそのものをゼロから設計するようなケースでは、AIエージェントは必ずしも「人間の代行」ではなく、プロセスの中で自律的に動く1つの主体になります。その場合、AIエージェント専用のIDを割り当てることが当たり前になる世界が見えてきます。
したがって、これまで明確だった「利用者」「権限」「責任」の境界は、本来、適切な設計と運用が行われていれば大きく崩れるものではありません。
しかし、「利用者自身が、自分のAIエージェントの能力や付与されている権限を十分に把握していない」、「1つのAIエージェントを複数人・チームで共有して利用する」場合には、誰がAIの行動を最終的に承認したのか、どの範囲まで権限を与えたのか、そしてその結果について誰がどのように説明責任を負うのか、といった点が不透明になりがちです。そのため企業は、こうした利用前提を明確にしたうえで、「利用者」「権限」「責任」の線引きとガバナンスのあり方を、再設計する必要があります。
図表3・4に、AIエージェントがもたらすアイデンティティ上のリスクと想定される事象、その影響の例をまとめます。
図表3:AIエージェントがもたらすアイデンティティ上のリスク例
リスク |
説明 |
|
想定される事象 |
影響 |
|
a. 認証の曖昧化 |
クライアント認証の脆弱化: AIエージェント自体の真正性を確認する手段が設けられていない状態で動作させる |
AIエージェントの偽装やなりすましが可能となり、不正アクセスや不正操作につながるおそれが生じる |
ユーザー認証の委任関係の不透明化: |
ユーザーが想定していない形でAIエージェントが認証を実施する可能性が生じ、認証プロセスの透明性や統制が失われる |
|
b. 過剰権限 |
AIエージェントに対して「何をしてよいか」という行動範囲や権限を明確に制限しないまま動作させる | 想定の範囲を超えた機密情報へのアクセスやシステム操作が発生するおそれが生じる |
c. 同意疲れ |
AIエージェントが自律的に行動する設計とした結果、処理の都度ユーザーに対して同意や承認を求める | ユーザーの混乱を招き、承認漏れや漫然とした許可が発生するおそれが生じる |
d. 権限失効・廃止の遅延 |
委任元のAIエージェントが有する権限が失効したにもかかわらず、委任先のAIエージェントが当該失効を反映せず、古い権限状態のまま操作を継続する | 本来許可されていない操作が実行される可能性が生じ、権限管理およびアクセス制御上の問題が発生する |
e. 廃止の不徹底 |
AIエージェントがユーザーの異動や退職後も停止・廃止されずに稼働し続ける | 当該AIエージェントが管理・制御困難な状態で残存し、意図しない利用や悪用につながるおそれが生じる |
f. 監査可能性の欠如 |
AIエージェントがユーザーの代理として操作を行うにもかかわらず、その操作がユーザーと適切に紐づいて記録されない、またはユーザー自身による操作と区別されない | インシデント発生時における責任の追跡やフォレンジック対応が困難となる |
g. 権限移譲の不適切化 |
AIエージェント間でタスクを委任する際に、元のAIエージェントが有する権限をそのまま引き継がせる設計とする | 本来当該権限を付与されるべきでないAIエージェントが権限を行使してしまう可能性が生じ、権限移譲およびアクセス制御上の問題が発生する |
h. 委任の不透明化 |
AIエージェントが別のAIエージェントにタスクを委任するA2A(Agent-to-Agent)構造において、委任関係や意思決定主体を明確に管理しない | 当該行為がどのAIエージェント、ひいては誰の指示・判断に基づくものかが不明瞭となり、責任主体の特定や行為のトレーサビリティが失われるという構造上の問題が生じる |
i. 相互運用性の欠如 |
異なる組織・プラットフォーム間などにおいて、標準仕様によらない独自実装されたAIエージェントがやりとりを行う | 認可の仕様や整合性確保が困難となる |
図表4:AIエージェントがもたらすアイデンティティ上のリスク例
ここまで読むと、「AIエージェントは危ないから使わないほうがいいのでは?」と感じるかもしれません。しかし論点は「禁止」ではなく、「誰が、どのAIに、どの範囲を委ねるのか」――この“信頼の構造”をどのように設計するかです。
AIエージェントを安全に活用するためには、従来のセキュリティ対策の枠を超え、AIの身元を確実に識別し、その行動範囲を明確に定義し、責任の所在を可視化するという、新しいアイデンティティ管理の仕組みが求められます。
また、こうした管理を実現するには、これまで国際的に整備されてきた相互運用性のある技術標準を適切に組み合わせて活用することが不可欠です。
同時に、AIエージェント特有のリスクを正しく理解し、既存のID・アクセス管理の知見や標準技術の理解に基づいて戦略的に対応を設計することが、今後のガバナンスにおける重要な鍵となります
本章では求められる対応の方向性としていくつかの観点を示します(図表5)。
AIエージェント自体を「誰であるか」が証明できるようにする必要があります。
具体的には、従来のようにAPIキーや共有IDで曖昧に動作させるのではなく、「各AIエージェント」「実行されるワークロード」「そのAIに指示・権限付与を行った人」をそれぞれ一意の識別子で管理し、相互に紐づけて記録することが求められます。
そのためには、人⇔AIの関係性を体系的に管理する体制、いわばKnow Your Agentが必要になります。
AIが1日に何百回も操作する世界では、人間が毎回承認することは現実的ではありません。
そのためには、「一定程度自立的かつ安全に判断できる仕組み」が不可欠です。
事前に定めたルールに基づくスコープ設定や、重要操作だけを後から承認できる認可の仕組みを活用し、利便性と安全性を両立することが求められます。
AIは一度作ると“止めどき”が曖昧です。
担当者が退職しても動き続け、誰も管理していないケースが発生する可能性があります。
今後は、AIを人と同じようなエンティティ(主体)として識別し、作成・更新・廃止を自動管理する仕組みが必要です。
具体的には、IDのプロビジョニング/デプロビジョニングを人の管理と同様のプロトコルで自動化し、AIエージェントのIDやアクセス権を統制します。
AIの操作ログを人間のものと区別できないと、問題発生時に責任を特定できません。
そこで重要になるのが、「誰(人間)が、どのAIを通じて、何を実行したか」を同時に記録することです。
AIと人間のIDを分けてログを残し、承認判断と実行結果を一元的に監査できるようにします。
この「可視化された行動履歴」を基に、定期的なログレビューや監査を行い、問題があれば権限やAI自体を是正・停止できる運用を組み込むことが、AI時代のコンプライアンスの基礎になります。
AIがAIを動かす時代では、権限の“渡しすぎ”が最大のリスクです。
再帰的委任を安全に制御するためには、委任のたびに権限を制御する仕組みが求められます。
さらに、どのAIがどの経路で権限を受け取ったのかを暗号的に記録し、誤用が発生しても「誰が、どの経路で許可したのか」を追跡できる状態を維持することが重要です。
各組織・企業が独自仕様でAIエージェントを開発することで、プラットフォームをまたいだ相互運用性が失われたり、それに起因するセキュリティ上のリスクが発生したりすることが予見されます。
この問題を解消するには、国際的な議論や標準仕様を適切に理解・実装し、異なるサービス間でも信頼を共有できるようにすることが必要です。また、その前提となるMCP(Model Context Protocol)やA2A(Agent-to-Agent)のような仕組み自体が、いまだ発展途上であることも踏まえる必要があります。これらの仕様やエコシステムの成熟とともに、サービスや組織をまたいだ信頼とアイデンティティの扱い方も、継続的に見直していくことが求められます。
図表5:AIエージェントがもたらすアイデンティティ上のリスク例と対応の方向性の紐づけ
AIエージェントの登場は、企業のアイデンティティ管理に新たな前提をもたらしうるものです。これまでのID・アクセス管理が想定してきた「人のアクセス管理」だけでは、自律的に行動するAIを安全かつ十分に統制することはできません。いま企業に求められているのは、AIエージェントに対する理解を深めつつ、利用する場合は適切なリスク認識のもとで適切なルールや仕組みを検討・実装することです。
AI時代のアイデンティティ戦略は、アクセスを制御する仕組みから、行動を理解し、説明し、責任を持って管理する仕組みへと進化しつつあります。それは単なる技術対応ではなく、AIの自律性を前提とした信頼のマネジメントそのものです。
AIを「統制の対象」から「信頼のパートナー」へ。その変革を実現することが、生成AIを企業の競争優位の源泉へと変える鍵となるでしょう。
{{item.text}}
{{item.text}}
{{item.text}}
{{item.text}}