OTにおけるセキュアなAI活用の原則:

その概要と実践(前編)

  • 2026-01-19

私たちは、AIを「生産性の向上とイノベーションの有力なイネーブラー(Enabler)」と位置付け、企業が適切なリスクマネジメントの下でAIをセキュアに活用できるよう、セキュリティやAIガバナンスに関する支援を行っています。今回のコラムでは、国際文書の解説を通じて、OT環境(Operational Technology:生産や研究のための設備や環境全体の制御・運用技術)におけるAI活用のリスクと、推奨される対策を紹介していきます。前編となる本稿ではCISAによる文書「OTにおけるセキュアなAI活用の原則」に示された4項目を基に、リスクと対策について解説します。後編は、OTにおけるAI活用の分類と、それぞれの実際の事例を通じて、本文書で言及されているリスクと対策の具体例を解説します。

2. AI活用のリスク

AI活用によるOTシステムの変化としては、主に①量・頻度・範囲の劇的な増加、②不透明化・複雑化、の2点に大別されます。この変化をポジティブに活用することができれば、AIは効率性、生産性、意思決定の質の向上に貢献するでしょう。一方で、こうした変化は従来からあるOTシステムの安全性、セキュリティ、信頼性のリスクを増加させるとともに、新たに不透明化や複雑化というリスクを生じさせ得るため、企業では管理の徹底と新たな対策の実施が求められます。

図表1は、OTシステムにAIを統合することによるリスクと、求められる対策の一覧です。

リスクには、従来からOTシステムに存在するリスクがAIによって増幅・強調されるものと、AI特有のリスクの双方があります。これらのリスクはいずれも、OTシステムの可用性や機能安全、企業の財務、レピュテーションなどに影響を与える可能性があることから、AI活用を検討する際にはこうしたリスクを踏まえた対策の適用が必要です。

図表1:OTにおけるAI活用のリスクと求められる対策

4. CISOおよびセキュリティチームに求められる姿勢

CISOおよびセキュリティチームは、AI活用の戦略パートナーとして、セキュアなAI活用をリードして事業戦略を支える存在になることが期待されています。そのためには、AIおよびAI活用を否定することなく積極的に理解し、AI時代に適したセキュリティ管理態勢を継続的に再構築していくことが必要です。また、そうした態勢がAIの特徴(例えば、圧倒的な量・頻度・範囲で行われる処理など)を踏まえ実際に機能する仕組みになっているか、態勢を機能させるために必要な副次的な施策は何かなどを検討することで、AI時代における実効的なセキュリティ管理態勢を目指すことが重要です。

次回(後編)では、実際のOTにおけるAI活用例を取り上げ、具体的なリスクや推奨される対策について解説します。

* CISA「AI Cybersecurity Collaboration Playbook」を参照のこと

執筆者

上村 益永

パートナー, PwCコンサルティング合同会社

Email

木佐森 幸太

マネージャー, PwCコンサルティング合同会社

Email

飯村 彰太

マネージャー, PwCコンサルティング合同会社

Email

竹内 映人

シニアアソシエイト, PwCコンサルティング合同会社

Email

前田 夏実

シニアアソシエイト, PwCコンサルティング合同会社

Email

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}

本ページに関するお問い合わせ