2025年12月23日に閣議決定された「人工知能基本計画」は、生成AIを筆頭に「AIエージェント」「フィジカルAI」などの新技術が進展する中で日本が出遅れている現状を踏まえ、AIの利活用と研究開発を一体で加速させて国家としての「反転攻勢」に出るための基本計画となっています。 世界では日々身近な形でAI利活用が進み産業競争力や安全保障に直結する「総力戦」になっている一方、日本では生活や仕事での積極的利活用が進まず実装が進んでいないこと自体が日本のAI開発上の大きな障害になっているという問題意識が計画の出発点にあります。
計画が掲げる国家目標は「世界で最もAIを開発・活用しやすい国」を目指すことで、その実現の鍵として「信頼できるAI」を軸に置きます。 日本が現実社会で積み上げてきた「信頼性」という価値をAIでも再現することに重点を置き、さまざまな現場で課題にAIを積極適用し経験をデータとして集積し組織を越えて共有することで「信頼できるAI」を創るという筋書きです。 そして「AIを使ってみる」という機運を高め、「利活用」から「開発」へのサイクルを回すことを徹底すると明記しています。
その上で政策運営の土台として「3原則」を置きます。すなわち「イノベーション促進とリスク対応の両立」を徹底すること、PDCAを循環させ変化に即応する「アジャイルな対応」を志向すること、国内政策と対外政策を有機的に組み合わせる「内外一体での政策推進」を行うことです。 これを具体化する方向として「4つの基本的な方針」を示し、第一に「AI利活用の加速的推進(AIを使う)」として、適切なリスク対応を行いながら社会全体で世界最先端のAIを積極的に利活用し、データの集積・利活用、特に組織を越えたデータ共有を促進してAIの徹底した利活用と性能向上につなげるとしています。 第二に「AI開発力の戦略的強化(AIを創る)」、第三に「AIガバナンスの主導」、第四に「AI社会に向けた継続的変革」を掲げ、利活用・開発・ガバナンス・社会変革を一体で進める全体像を示します。
また計画はリスクへの対応も同時に強調します。 誤判断やハルシネーション等の技術的リスクだけでなく、差別や偏見の助長、犯罪への利用、過度な依存、プライバシーや著作権等の侵害、環境負荷、偽・誤情報の拡散、雇用・経済不安、サイバー攻撃等の安全保障上のリスクまで拡大しているとして、変動するリスクを適時適切に把握し、透明性・公平性・安全性等の適正性を確保して国民の不安を払拭しながら、安全・安心で「信頼できるAI」を体現していくことが不可欠だと整理しています。 そしてこの国家目標の実現に資する戦略として、AI法(令和7年法律第53号)第18条第1項に基づく「人工知能基本計画」を策定し、政府は計画内容を着実に推進すると結んでいます。
2025年はフィジカルAIが大きく進展した年でした。 中でも仮想環境で十分にシミュレーションして現場に落とし込む「デジタルツイン」が、単なる設計検討の道具ではなくフィジカルAIの開発と運用を回すための基盤として位置づけられ始めた点が大きいと見ています。 フィジカルAIは言語や画像を理解するだけでなく、現実のロボットやヒューマノイドを直接動かしタスクを完了させる方向へ進みます。 しかし現場で試行錯誤を回すほど「物理的な失敗」が高くつき、転倒や衝突は事故・破損につながり、設備やラインを止めれば停止損失が発生してしまいます。 安全上の制約も大きいため失敗を意図的に大量に起こしてデータを集めること自体が難しく、成功例は残りやすい一方で改善のための失敗データは集まりにくくなります。
そこで重要になるのが仮想空間で安全に失敗できる環境です。 デジタルツインは、現実の設備・レイアウト・ロボット・周辺環境を物理的に計算できる形で再現し、学習と検証を先にデジタル側で回せるようにします。 現実で試しにくい条件や危険なケースを先に網羅できるため、現場投入前にリスクがある挙動を潰せます。 さらに現場から得られるログや状態データを参照して改善案を検討し、デジタルと現場を往復させながら学習・検証・運用改善のサイクルを回せる点も大きいです。 モデルやシミュレーションを使って合成データを生成し現場では集めづらい事例を補う発想が強まったのもこの流れに沿ったものです。
またVLA(Vision-Language-Action)のように、指示理解から行動までを人間のように見て、理解し、自律的に行動するモデルが現れています。 こうしたモデルほど現場での試行錯誤が高コストになりやすく、デジタルツイン上で評価と検証を先に回し成功率や安全性を詰めてから現場へ出すという順番が導入の現実味を押し上げています。
一方でメタバースという言葉自体の熱は落ち着いたように見えます。 消費者向けの体験価値は評価が割れやすい一方、工場や倉庫では「手戻り削減」「安全性向上」「停止の回避」といった効果がコストに直結し、投資対効果を説明しやすくなりました。 だからこそデジタルツインを軸にした開発・検証・運用のループが現場で導入され始めたと言えます。 2026年もこの流れは続きフィジカルAIはロボットやヒューマノイドの能力そのものだけでなく、それを現場で育てるための開発基盤(デジタルツイン)とセットで前進していくことでしょう。
量子コンピュータは将来考えればよい話ではなくなりつつあります。 暗号を今すぐ破れる量子コンピュータが既に完成したからではありませんが、暗号化されたデータを現時点で盗み出し、解読できなくても保管しておき、将来量子コンピュータの性能が十分になった段階で復号を試みるという脅威モデルは対応すべき問題として挙げられています。 NISTはこれをHNDL(harvest now, decrypt later)として説明し、こうした前提がある以上PQC(Post-Quantum Cryptography:耐量子暗号)への移行を早期に進める必要があるという立場を示しています。
このとき守るべき対象は「いま流れている通信」だけではありません。 数年後でも価値が残るデータ、たとえば設計情報や個人情報のような長期機密は将来に読まれても被害が続きます。 暗号化は"今日の解読が困難である"ことは担保できても"将来も解読されない"ことまでは担保できません。 量子コンピュータ時代のリスクは復号が実現した瞬間に始まるのではなく、暗号文が盗まれた時点で蓄積していくと考えるべきかもしれません。
一方でRSAやECCが現時点で量子コンピュータによって実用レベルで破られているわけではありません。 しかし公開鍵暗号の前提が量子計算によって崩れ得ることは広く認識されており、時期は不確実でも長期機密を抱える組織ほど先送りが難しい状況になっています。 だからこそPQCが重要になります。
ただしPQC対応は暗号ライブラリを差し替えて終わりではありません。 TLSやVPN、PKIといった基盤、証明書の運用、鍵管理まで影響が波及します。 移行には時間がかかるため、世界ではすでに量子で破られる日が確定してから動くのではなく、不確実でも今から備えるという姿勢でPQC移行の準備が進められています。
量子コンピュータの実用化が現実味を帯びる中、暗号手段はインフラレベルで更新局面に入りました。 これは新たな課題であると同時に新たな事業機会でもあります。 これからセキュリティの覇権を握る国や企業はどこになるのでしょうか。
生成AIがビジネスにどう影響を与えているのか。 いま起きているのは限られた人が使う便利ツールが増えたという話ではありません。 文章・資料・開発といった日常業務の中に生成AIを使うことが前提になってきたという変化です。 下書きや整理をAIに渡す人が増えた結果、アウトプットの速さと品質の基準が少しずつ上がっているのを感じます。
たとえば汎用AIの代表がChatGPTとGeminiです。 どちらも相談相手として優秀ですが、本質は「考える時間を短縮する道具」になった点にあります。 ゼロから文章を書くのではなく、目的、読者、要点を渡して骨子を作らせ、叩き台を先に出す。 メール、提案書、議事録、社内共有文書など、初速が上がるだけで仕事の効率は良くなります。 人間がやるべきことは、内容の正しさと優先度を判断し、最終責任を持つことになっています。
プレゼンや説明資料の領域でも同じことが起きています。 NotebookLMのように資料やURLを与えると、内容を読み取り、要点を整理し、説明の順番や台本の叩き台まで作れます。 動画編集のスキル以前に、「何をどう説明するか」を整える工程が一番重要で、そして重い。 その前工程が短くなることで、説明資料や動画は作れる人だけの仕事ではなくなってきました。
開発の現場ではCodexの価値が分かりやすいです。 単にコード生成が速いだけではありません。 既存コードベースを前提に「どのファイルを触るか」「影響範囲はどこか」を洗い出し、APIのI/Fやデータ構造、バリデーション、例外系まで含めて実装の骨格を組み立てる。 さらに、変更内容に沿ったテストの雛形や確認観点を用意し、差分としてまとめるところまで進められます。 そのぶん人間は設計判断と差分レビューに集中でき、結果として手戻りが減ります。
ただし注意点もあります。 生成AIは万能ではなく誤りも混ざります。 その領域の基礎知識がないまま使うと、出力を評価できず間違いを見逃します。 だからこそ今後の差は「生成できるか」ではなく「判断できるか」に移ってくるでしょう。
では、出力を判断できる人になるには何を身につければいいのか。 結局のところ答えはシンプルで基礎知識です。 生成AIが当たり前になるほど、学ばなくていい時代になるのではなく、学び続ける人がさらに差を広げる時代になっていきます。
2025年ももう暮れですが、今年は AI が当たり前になった年として記憶に残りそうです。
生成AIの世界では、OpenAIがGPT-4.1に続いてGPT-5、さらにGPT-5.1を投入し、チャットボットを越えて仕事や学習のインフラのような存在へと押し上げました。 GPT-5は高い性能を持つ一方で、「会話が少し冷たくなった」と感じるユーザーの声も多く旧モデルに戻す動きもありました。 それを受けて登場したGPT-5.1では指示への従順さだけでなく話していて心地よいことも重視した改良が加えられています。
OpenAIだけでなくGoogleもGemini2.0からGemini3へと世代交代を進めました。 Geminiは検索やGoogle Workspace、そしてNotebookLMと組み合わされ、はじめから日常の仕事の中に溶け込む形で展開されています。 一方で、中国発のDeepSeekは、高性能なモデルをオープンウェイトかつ低コストで提供した点が大きな衝撃でした。 その台頭は性能面だけでなくどの国の事業者にどこまでデータを預けてよいのかという情報管理の問題を企業や政府に強く意識させるきっかけにもなりました。
便利さが増した一方で、チャットボットに悩み相談や日々の意思決定を大きく依存してしまうAI依存の懸念も、はっきりと語られるようになりました。AIとどう距離を取るかどこまで任せるかという付き合い方は、2026年以降の重要なテーマになってきそうです。
一方で2025年は生成AIだけでなく、物理世界で動くフィジカルAIが一気に存在感を増した年でもあります。 もともとデジタルツインの概念自体は2000年代からありますが、工場や倉庫を精密に仮想空間に再現し、その中でロボットを学習させてから現実のラインに展開するという流れがいよいよ本格的な実証・導入フェーズに入ってきました。
各国では、押されても自らバランスを取り戻し、人と同じ空間で作業できるヒューマノイドロボットの開発競争が激しくなっています。 中国勢の勢いが目立つ一方で、日本でも産業用ロボットのファナックがNVIDIAと組み、フィジカルAI/デジタルツインの取り組みを打ち出しました。 安川電機もNVIDIAのプラットフォームを活用しながらソフトバンクと連携し、オフィス向けのPhysical AIロボットの実証を始めるなど、日本発のフィジカルAIも動き出しています。
こうした動きが進めばGPTやGeminiのような生成AIが「頭脳」として、フィジカルAIやヒューマノイドが「身体」として結びついていくのは時間の問題です。 自律的に会話し、状況に応じて判断しながら動き回るロボットが工場やオフィスそしていずれは家庭にも入ってくるでしょう。
もちろん実際の普及には、安全性、法規制、倫理、雇用への影響など、まだまだ乗り越えるべき課題が山積しています。それでもまずは一部の工場や実証現場から、ヒューマノイドやフィジカルAIの導入が着実に進んでいきそうです。私たち一人ひとりも、AIを特別なものとして恐れるのではなく、どのように付き合い、どこまで任せるのかを考える段階に入ってきたのだと感じます。