NIST SP 800-207で示されている Zero Trust Architecture(ZTA) は、社内ネットワークに入れたら安全という前提を置かず、守る対象をネットワーク境界ではなく resource(リソース:data/application/service/account/workflow などの保護対象) として捉える設計指針となっています。 クラウドやリモートワークの普及により資産が境界の外にも分散する状況では、場所ではなく identity(利用者やサービスの識別子)、device posture(端末の安全状態)、context(時間・場所・状況などの条件) を根拠にアクセス判断を行います。
ZTAの中核となる構成要素はPDP(Policy Decision Point:ポリシー判断点) と PEP(Policy Enforcement Point:ポリシー強制点) となっています。 PDPはさらにPE(Policy Engine:最終的に許可・拒否・取り消しを判断するエンジン) と、PA(Policy Administrator:判断結果に基づき通信経路やセッションを操作する管理役) に分かれます。
PE:policy(ポリシー=判断ルール)とリスク情報を使い allow / deny / revoke(許可/拒否/取り消し)を決定
PA:PEの判断に従い、session(通信のまとまり) の確立・終了や token(一時的な認可情報) の発行・配布を実行
PEP:利用者やサービスからの request(アクセス要求) を受け、指示どおりに接続を有効化・監視・遮断
重要なのは認証・認可が一度きりではない点です。 ZTAではresourceへのrequestごとに評価し、状況が変われば途中でもrevokeできるという継続的な制御を前提とします。
判断に用いる情報は policy information points(判断材料) として整理され、CDM(Continuous Diagnostics and Mitigation:端末の状態を継続監視する仕組み)、threat intelligence(脅威情報)、log aggregation/SIEM(ログの集中管理・分析)、データアクセス方針などが例示されます。ZTAは単一製品ではなく、既存環境と混在しながら段階導入するための設計モデルである点が、NISTの示す重要なポイントです。
ZTA(ゼロトラスト・アーキテクチャ)は、「社内だから安全」に頼らず、データやアプリなど守る対象へのアクセスをその都度確認し、条件に合うときだけ最小限で通し、危なくなれば途中でも止めるための設計の考え方です。
AIの活用が進むにつれてサイバーセキュリティの前提そのものが変化しつつあります。 これまでのITセキュリティは人が操作し人が判断しその結果に人が責任を負うことを前提として設計されてきました。 しかしAIが意思決定や実行の一部あるいは大部分を担うようになった現在、その前提はもはや成り立たなくなっています。
近年のAIは文章生成や質問応答にとどまらず、メール送信、ファイル操作、システム設定の変更、送金や契約処理といった実務にまで直接関与するようになっています。 AIが前提条件を誤解したり参照する情報を取り違えたりした場合、その誤りは即座に現実の行動として実行されます。 しかもAIは人間よりも速く同じ判断をためらうことなく繰り返します。 悪意がなくても短時間で大きな損害が発生し得る点が従来のシステム障害とは決定的に異なります。
次に深刻なのが「誰がその行為を行ったのか」が分からなくなることです。 従来は操作ログを確認すれば誰が、いつ、何をしたのかを追跡することができました。 しかしAIが介在すると人が直接操作したのかAIが判断して実行したのか、あるいは別のAIの影響を受けた結果なのかが曖昧になります。 AIに広い権限を与えている場合、一つの認証情報やトークンの漏洩が気づかれないまま重要な操作の連続実行につながることもあります。
AIが「もっともらしい誤り」を前提に動いてしまうことも大きなリスクです。 AIは社内文書やデータベースを参照しながら判断を行いますが、その中に古い資料や誤った情報あるいは意図的に混入された偽情報が含まれているとそれらを正しい前提として扱ってしまいます。 問題なのはAIがその判断を強い確信を持って実行する点にあります。 一見すると正しそうに見えるため人間が異常に気づくまでに時間がかかり、その間に誤った判断が自動的に連鎖していきます。
さらに事故や不正が起きた後に説明できないという問題も無視できません。 AIが関与した判断について「なぜその結論に至ったのか」「どの情報を根拠にしたのか」「誰が承認したのか」を明確に説明できないケースが増えています。 これは単なる技術的な課題ではなく、監査や法規制、取引先への説明といった経営レベルの問題に直結します。 システムを修正できたとしても説明できなければ信用は回復しません。 「AIが判断した」という理由は責任を免れる根拠にはならないのです。
これらのリスクに共通しているのは攻撃手法そのものが高度化したことではありません。 AIの判断と実行が人間の理解や統制の範囲を超え始めているという点にあります。 AI時代のセキュリティとは単に侵入を防ぐことではなく、AIが何を判断し、どこまで実行し、その結果に誰が責任を持つのかを、後からでも説明できる状態を維持することにあります。
そして重要なのはこの未整理な領域そのものが大きなビジネスチャンスになっているという点です。 AIの行動を制御し、権限を適切に分離し、判断と実行の証跡を残し、説明責任を担保する仕組みは現時点では十分に整備されていません。 これは単なるセキュリティ製品の話ではなく、企業がAIを業務に組み込み安心して使い続けるための基盤の問題です。 AI時代の不安や責任を引き受けるソリューションを提供できるかどうかが、これからのセキュリティビジネスの価値を決定づけていくことになるでしょう。
2025年12月23日に閣議決定された「人工知能基本計画」は、生成AIを筆頭に「AIエージェント」「フィジカルAI」などの新技術が進展する中で日本が出遅れている現状を踏まえ、AIの利活用と研究開発を一体で加速させて国家としての「反転攻勢」に出るための基本計画となっています。 世界では日々身近な形でAI利活用が進み産業競争力や安全保障に直結する「総力戦」になっている一方、日本では生活や仕事での積極的利活用が進まず実装が進んでいないこと自体が日本のAI開発上の大きな障害になっているという問題意識が計画の出発点にあります。
計画が掲げる国家目標は「世界で最もAIを開発・活用しやすい国」を目指すことで、その実現の鍵として「信頼できるAI」を軸に置きます。 日本が現実社会で積み上げてきた「信頼性」という価値をAIでも再現することに重点を置き、さまざまな現場で課題にAIを積極適用し経験をデータとして集積し組織を越えて共有することで「信頼できるAI」を創るという筋書きです。 そして「AIを使ってみる」という機運を高め、「利活用」から「開発」へのサイクルを回すことを徹底すると明記しています。
その上で政策運営の土台として「3原則」を置きます。すなわち「イノベーション促進とリスク対応の両立」を徹底すること、PDCAを循環させ変化に即応する「アジャイルな対応」を志向すること、国内政策と対外政策を有機的に組み合わせる「内外一体での政策推進」を行うことです。 これを具体化する方向として「4つの基本的な方針」を示し、第一に「AI利活用の加速的推進(AIを使う)」として、適切なリスク対応を行いながら社会全体で世界最先端のAIを積極的に利活用し、データの集積・利活用、特に組織を越えたデータ共有を促進してAIの徹底した利活用と性能向上につなげるとしています。 第二に「AI開発力の戦略的強化(AIを創る)」、第三に「AIガバナンスの主導」、第四に「AI社会に向けた継続的変革」を掲げ、利活用・開発・ガバナンス・社会変革を一体で進める全体像を示します。
また計画はリスクへの対応も同時に強調します。 誤判断やハルシネーション等の技術的リスクだけでなく、差別や偏見の助長、犯罪への利用、過度な依存、プライバシーや著作権等の侵害、環境負荷、偽・誤情報の拡散、雇用・経済不安、サイバー攻撃等の安全保障上のリスクまで拡大しているとして、変動するリスクを適時適切に把握し、透明性・公平性・安全性等の適正性を確保して国民の不安を払拭しながら、安全・安心で「信頼できるAI」を体現していくことが不可欠だと整理しています。 そしてこの国家目標の実現に資する戦略として、AI法(令和7年法律第53号)第18条第1項に基づく「人工知能基本計画」を策定し、政府は計画内容を着実に推進すると結んでいます。
2025年はフィジカルAIが大きく進展した年でした。 中でも仮想環境で十分にシミュレーションして現場に落とし込む「デジタルツイン」が、単なる設計検討の道具ではなくフィジカルAIの開発と運用を回すための基盤として位置づけられ始めた点が大きいと見ています。 フィジカルAIは言語や画像を理解するだけでなく、現実のロボットやヒューマノイドを直接動かしタスクを完了させる方向へ進みます。 しかし現場で試行錯誤を回すほど「物理的な失敗」が高くつき、転倒や衝突は事故・破損につながり、設備やラインを止めれば停止損失が発生してしまいます。 安全上の制約も大きいため失敗を意図的に大量に起こしてデータを集めること自体が難しく、成功例は残りやすい一方で改善のための失敗データは集まりにくくなります。
そこで重要になるのが仮想空間で安全に失敗できる環境です。 デジタルツインは、現実の設備・レイアウト・ロボット・周辺環境を物理的に計算できる形で再現し、学習と検証を先にデジタル側で回せるようにします。 現実で試しにくい条件や危険なケースを先に網羅できるため、現場投入前にリスクがある挙動を潰せます。 さらに現場から得られるログや状態データを参照して改善案を検討し、デジタルと現場を往復させながら学習・検証・運用改善のサイクルを回せる点も大きいです。 モデルやシミュレーションを使って合成データを生成し現場では集めづらい事例を補う発想が強まったのもこの流れに沿ったものです。
またVLA(Vision-Language-Action)のように、指示理解から行動までを人間のように見て、理解し、自律的に行動するモデルが現れています。 こうしたモデルほど現場での試行錯誤が高コストになりやすく、デジタルツイン上で評価と検証を先に回し成功率や安全性を詰めてから現場へ出すという順番が導入の現実味を押し上げています。
一方でメタバースという言葉自体の熱は落ち着いたように見えます。 消費者向けの体験価値は評価が割れやすい一方、工場や倉庫では「手戻り削減」「安全性向上」「停止の回避」といった効果がコストに直結し、投資対効果を説明しやすくなりました。 だからこそデジタルツインを軸にした開発・検証・運用のループが現場で導入され始めたと言えます。 2026年もこの流れは続きフィジカルAIはロボットやヒューマノイドの能力そのものだけでなく、それを現場で育てるための開発基盤(デジタルツイン)とセットで前進していくことでしょう。
量子コンピュータは将来考えればよい話ではなくなりつつあります。 暗号を今すぐ破れる量子コンピュータが既に完成したからではありませんが、暗号化されたデータを現時点で盗み出し、解読できなくても保管しておき、将来量子コンピュータの性能が十分になった段階で復号を試みるという脅威モデルは対応すべき問題として挙げられています。 NISTはこれをHNDL(harvest now, decrypt later)として説明し、こうした前提がある以上PQC(Post-Quantum Cryptography:耐量子暗号)への移行を早期に進める必要があるという立場を示しています。
このとき守るべき対象は「いま流れている通信」だけではありません。 数年後でも価値が残るデータ、たとえば設計情報や個人情報のような長期機密は将来に読まれても被害が続きます。 暗号化は"今日の解読が困難である"ことは担保できても"将来も解読されない"ことまでは担保できません。 量子コンピュータ時代のリスクは復号が実現した瞬間に始まるのではなく、暗号文が盗まれた時点で蓄積していくと考えるべきかもしれません。
一方でRSAやECCが現時点で量子コンピュータによって実用レベルで破られているわけではありません。 しかし公開鍵暗号の前提が量子計算によって崩れ得ることは広く認識されており、時期は不確実でも長期機密を抱える組織ほど先送りが難しい状況になっています。 だからこそPQCが重要になります。
ただしPQC対応は暗号ライブラリを差し替えて終わりではありません。 TLSやVPN、PKIといった基盤、証明書の運用、鍵管理まで影響が波及します。 移行には時間がかかるため、世界ではすでに量子で破られる日が確定してから動くのではなく、不確実でも今から備えるという姿勢でPQC移行の準備が進められています。
量子コンピュータの実用化が現実味を帯びる中、暗号手段はインフラレベルで更新局面に入りました。 これは新たな課題であると同時に新たな事業機会でもあります。 これからセキュリティの覇権を握る国や企業はどこになるのでしょうか。