{{item.title}}
{{item.text}}
{{item.text}}
私たちは、AIを「生産性の向上とイノベーションの有力なイネーブラー(Enabler)」と位置付け、企業が適切なリスクマネジメントの下でAIをセキュアに活用できるよう、セキュリティやAIガバナンスに関する支援を行っています。今回のコラムでは、国際文書の解説を通じて、OT環境(Operational Technology:生産や研究のための設備や環境全体の制御・運用技術)におけるAI活用のリスクと、推奨される対策を紹介していきます。前編となる本稿ではCISAによる文書「OTにおけるセキュアなAI活用の原則」に示された4項目を基に、リスクと対策について解説します。後編は、OTにおけるAI活用の分類と、それぞれの実際の事例を通じて、本文書で言及されているリスクと対策の具体例を解説します。
米国サイバーセキュリティ・インフラセキュリティ庁(CISA)は2025年12月3日、「Principles for the Secure Integration of Artificial Intelligence in Operational Technology(邦訳:OTにおけるセキュアなAI活用の原則)」を公開しました。同書はCISAとオーストラリア通信情報局・オーストラリアサイバーセキュリティセンター主導の下、米国国家安全保障局AIセキュリティセンター、米国連邦捜査局、カナダサイバーセキュリティセンター、ドイツ連邦情報セキュリティ庁、オランダ国家サイバーセキュリティセンター、ニュージーランド国家サイバーセキュリティセンター、英国国家サイバーセキュリティセンターの7カ国、10機関によって共同で作成されました。これらの機関は過去にも共同でセキュリティ原則を公開しており、いずれも重要インフラ向けのセキュリティ指針として国際的に認知されています。
同書では、重要インフラの所有者と運営者がOTにおけるAI活用のメリットを享受しながらも、機能安全やセキュリティリスクに生じる変化に対処することができるよう、4つの原則を提唱しています。
OT環境でAIを活用することによる潜在的な影響とAI固有のリスクを理解し、そうした影響やリスクに関する教育の重要性やセキュアなAI開発ライフサイクルについて認識すること。
OT環境でのAIの具体的なユースケースを評価し、OTデータのセキュリティリスク、ベンダーの役割、AI導入における短期的または長期的な課題を管理すること。
AIの信頼性を保証するため、厳格なガバナンス制度の実装、セキュリティフレームワークの適用、AIモデルの継続的なテスト・評価、規制遵守に対応すること。
AI導入後もOT環境の機能安全とセキュリティ、OTシステムの透明性を維持するために、AIの特徴やリスクを踏まえた監視の仕組みとインシデント対応計画を整備すること。
次の項目ではこれら4つの原則について、リスクと対策について解説していきます。
AI活用によるOTシステムの変化としては、主に①量・頻度・範囲の劇的な増加、②不透明化・複雑化、の2点に大別されます。この変化をポジティブに活用することができれば、AIは効率性、生産性、意思決定の質の向上に貢献するでしょう。一方で、こうした変化は従来からあるOTシステムの安全性、セキュリティ、信頼性のリスクを増加させるとともに、新たに不透明化や複雑化というリスクを生じさせ得るため、企業では管理の徹底と新たな対策の実施が求められます。
図表1は、OTシステムにAIを統合することによるリスクと、求められる対策の一覧です。
リスクには、従来からOTシステムに存在するリスクがAIによって増幅・強調されるものと、AI特有のリスクの双方があります。これらのリスクはいずれも、OTシステムの可用性や機能安全、企業の財務、レピュテーションなどに影響を与える可能性があることから、AI活用を検討する際にはこうしたリスクを踏まえた対策の適用が必要です。
図表1:OTにおけるAI活用のリスクと求められる対策
ここからは具体的な対策について、ポイントに分けて紹介します。
AIガバナンスを確立することが重要です(参考:AIガバナンス)。その設計においては、AIの機能・メリットとリスクの適度なバランスを基に検討できる知見と責任を有するCEOやCISOなどの上級役職者、OTとITの専門家、セキュリティチームの関与が推奨されます。また、後述する「⑥セキュアなAI開発ライフサイクル」における役割と責任を明確にすることも必要です。ガバナンスの運用状況は、定期的なポリシーとの整合性確認や監査により把握します。
AI技術が進化していることを踏まえて、AIを導入したOT環境が各種規制や基準に準拠できているかを継続的に管理します。
AI導入によるメリットだけでなく、生じる課題も適切に評価します。例えば、AI導入によりシステムの動作全体が複雑化すること、脆弱性が増加することの他、OTシステムが求めるタイミング要件を満たせるか、ベンダーの成熟度は十分か、などの検討が想定されます。
AIのセキュリティ上の考慮事項を踏まえ、既存のセキュリティフレームワークを拡張していきます。AI活用では、特にクラウド基盤にリスクが集中するため、クラウド基盤のリスクが顕在化した場合の影響は深刻かつ広範囲に及ぶことになります。そこでAI活用の際には、従来のセキュリティ対策の優先度や重要度の見直しも求められます。また、③で評価した自社の個別課題も考慮していきます。これについてはMITRE ATLASなどを活用し、AIシステムに対するTTPsを組み込むことが推奨されます。
AIの基礎的な知識やAI出力を検証する方法、AI導入業務に関する標準手順書などの策定の他、AIの意思決定プロセスなどについて教育・訓練の機会を提供します。
AI特有のリスクを考慮し、OT環境のセキュリティ要件を満たした実績あるAIを選択したり、OTデータの保護をより慎重に考慮したり、運用後の継続的な脆弱性管理を確認したりすることで、従来のセキュアなシステム開発ライフサイクルを拡張していきます。
2025年時点に現存する多くのAIに関する技術標準は、IT環境におけるAIシステムを前提としており、OT環境におけるAI活用は前提とされていません。そのことを念頭に、(1)規制の遵守、(2)安全基準との合致、(3)(IT環境を前提としている)技術標準の適用可能性、(4)非AIシステムへの切り戻し基準の設定などを十分検討し、テストを行います。
参考:欧州電気通信標準協会(ETSI)のAI技術標準
・ETSITR104128人工知能の保護(SAI);AIモデルとシステムのサイバーセキュリティガイド
・ETSITS104223人工知能の保護(SAI);AIモデルおよびシステムの基本的なサイバーセキュリティ要件
・ETSITR104048人工知能の保護(SAI);データサプライチェーンセキュリティ
AIモデルの構築に活用するOTデータについて、データ自体の機密性やプライバシーを考慮します。テストデータからの除外、データの所在国の規制・指針への対応と遵守、データ統合によるリスク拡大を避けるためのサイロ化、サイバー攻撃への悪用が懸念されるデータ(例:ネットワーク構成図など)の除外などが推奨されます。
AIの機能安全に対する責任は、人間にあります。AIを含むOTシステムの監視とフェイルセーフを確実に実施する運用の仕組みとツールを整備することが必要です。
・安全な監視と運用のポイント:
・重要な機能を担うAIシステムは、オペレーターやエンジニアが意思決定に必要とする情報を提供するが、意思決定そのものは人間が行う。特に、制御に直接影響を与えるAIシステムでは、人間が介入するポイントを組み込んだり、閾値を設定したりすることで人間が気付く前に事態が深刻化するといったリスクに対処できるようにする。
・AIの仕組みを理解した上で、AIモデルの正確さ、出力の正確さと信頼性を常に検証し改良する。
・AIモデルと実データの乖離に起因する、AIの精度や挙動の異常(AIドリフト)を監視する。
・AIレッドチームやネットワークセキュリティ対策を適用する。
参考:CISA「Cybersecurity Performance Goals (CPGs) 2.F」
AIは進化中の技術であり、導入後も継続的に(1)セキュリティ、(2)性能、(3)複雑さ、(4)コスト、(5)安全性への影響などの観点でリスクを評価し、それぞれのケースに応じて適宜対策を行うマネジメントサイクルを構築します(参考:AIリスク管理フレームワーク)。
既存の機能安全やインシデント対応プロセスに、AIシステムにおける機能安全とフェイルセーフ機構やAIシステムの代替方法、ステークホルダーとの連携や情報共有方法*を組み込みます。
CISOおよびセキュリティチームは、AI活用の戦略パートナーとして、セキュアなAI活用をリードして事業戦略を支える存在になることが期待されています。そのためには、AIおよびAI活用を否定することなく積極的に理解し、AI時代に適したセキュリティ管理態勢を継続的に再構築していくことが必要です。また、そうした態勢がAIの特徴(例えば、圧倒的な量・頻度・範囲で行われる処理など)を踏まえ実際に機能する仕組みになっているか、態勢を機能させるために必要な副次的な施策は何かなどを検討することで、AI時代における実効的なセキュリティ管理態勢を目指すことが重要です。
次回(後編)では、実際のOTにおけるAI活用例を取り上げ、具体的なリスクや推奨される対策について解説します。
* CISA「AI Cybersecurity Collaboration Playbook」を参照のこと
{{item.text}}
{{item.text}}
{{item.text}}
{{item.text}}