デジタル庁は2026年4月24日、政府職員向けの生成AI利用環境「源内」のソースコードをオープンソースとして公開しました。 この取り組みは行政における生成AI活用の透明性を高めるだけでなく、民間企業による活用を通じて課題を抽出・共有し国内のAI活用基盤を構築することを目的としています。 ソースコードはMITライセンス(商用利用、改変・再配布可、著作権表示必須)に基づきGitHubで公開されています。
https://www.digital.go.jp/policies/genai
https://www.digital.go.jp/news/907c8e5d-2f4f-4bd7-9400-37c9f4221d7d
「源内」はAIモデルそのものではなく、多様なモデルを安全に利用するための「プラットフォーム」として設計されており、その核となっているのがRAG(検索拡張生成)の仕組みです。 メインとなるLLMはGPTやGeminiなど複数の外部モデルを切り替えて活用することを前提としています。 また各省庁では国内LLMの採用も進められています。
一方で現在の運用における重要な要件として開発企業には学習データの透明性担保が求められます。 どれほど堅牢なRAGシステムを構築したとしても、参照元となるデータ自体が汚染されていては意味をなしません。 「誰が、いつ、何を記録したのか」を明確化しAIの信頼性を担保する必要があります。 この「データの出所管理」機能は現在の「源内」には実装されていないため、導入組織が自社で構築すべき領域です。 解決策の一案としては、ブロックチェーン技術の活用などが考えられます。
「源内」のオープンソース化は日本におけるエンタープライズ向けRAGの「標準的な設計図」を示したものと言えます。 しかし、その先にある「検証可能性」という本質的な課題の解決は、今後の重要なステップとなります。 誰もが真に安心して利用できる次世代のAIインフラが求められています。
現在のITベンチャー市場では、生成AIを実務に直結させ直接的なコスト削減を実現する企業が急成長しています。 代表格のキャディ(CADDi)は製造業における膨大な図面データをAIで解析・資産化し、調達や設計の最適化を通じて劇的なコストダウンを実現しました。一方、リーガルオンテクノロジーズ(LegalOn Technologies)は法務領域に特化し契約書の自動レビューや法的リスクの抽出を自律的にこなすAIエージェントを提供することで、法務部門の工数や弁護士費用の大幅な削減を可能にしています。
これらの企業が支持される背景には、深刻な労働力不足を背景に属人的な専門スキルをAIで代替し企業の収益構造を直接改善する実利への期待があります。
しかしこうした成長の裏側には、情報の取り扱いという避けて通れない課題も存在します。 AIが解析するのは企業の設計ノウハウや契約内容といった重要機密であるため万が一のデータ漏洩は大きな経営リスクとなります。 利便性を享受する一方でいかに安全に情報を守りながら信頼を担保し続けられるかが今後の事業拡大における重要な鍵となっています。
欧州のデジタル空間における安全保障の要として欧州サイバーセキュリティ庁(ENISA)は今や不可欠な存在となっています。 ENISAは2004年に技術的な助言を行う時限的な機関として発足しましたが、サイバー脅威の深刻化に伴いその役割は年々重みを増し2019年の欧州サイバーセキュリティ法によって恒久的な機関へと格上げになりました。 現在ENISAはギリシャを拠点に加盟各国の専門機関を繋ぐハブ組織として、欧州のデジタル社会を守るための中枢的な役割を担っています。
その活動の一つは、欧州の広範な社会基盤を支えるNIS2指令の技術的な実装支援です。 2024年10月の国内法化期限を経て現在は電力や医療、製造といった重要分野の企業に対してのENISAが主導する脆弱性管理の枠組みやインシデント報告の指針は、法的遵守のための不可欠なマニュアルとなっています。 またデジタル要素を持つ製品の安全性や、どこから来たのかという「来歴の証明(真正性)」を義務付けるサイバー・レジリエンス法においても、ENISAは製品のセキュリティ認証制度の設計や報告を受け取る重要な窓口としての役割を果たしています。 特に同法に基づくメーカーの脆弱性報告義務は2026年9月から適用が始まるため、各企業は今まさに準備の最終段階にあります。
さらに2026年8月2日から主要な規制が適用開始となるAI法においてもAIシステムが満たすべきセキュリティ要件の策定においてENISAの専門知識が活用されています。 設立から20年以上を経てENISAは複雑な法規制と最先端技術を繋ぎ、欧州でビジネスを行う全ての組織が、変化の激しいデジタル社会を迷わず進むための羅針盤としての地位を確立しています。
日本のサイバーセキュリティ政策は大きな転換点を迎えています。 これまでは通信の秘密を重視し、攻撃を受けた後の対処を中心とする受動的な防御を基本としてきましたが、2026年現在は能動的サイバー防御の導入へと大きく舵を切っています。
この政策は重大な攻撃の予兆を検知した際に攻撃元のサーバーを無害化するなどの措置を可能にするもので、関連法の本格施行により国家レベルでの防御力が飛躍的に強化されつつあります。組織も改変され、強力な指揮権を持つサイバー統括室が官民連携を主導する体制が整っています。
経済安全保障ではセキュリティ・クリアランス制度が本格運用されており、重要情報を扱う個人や企業の信頼性を評価する枠組みが確立されました。 これにより防衛や先端技術に関わるサプライチェーンの透明性が高まっています。
さらにAIの普及に伴い、特有の脆弱性や自律型AIのリスクに対処するための最新指針が公表されたほか、耐量子計算機暗号への移行に向けたロードマップも具体化しています。 重要インフラ事業者にはインシデント報告が法的義務となり、より高度な対策が求められています。
このような時代においてベンチャー企業がチャンスを掴むためには、特定の技術領域における唯一無二の専門性を磨くことが鍵となります。 大企業が対応に時間を要するAIの脆弱性解析や次世代暗号の実装、あるいは能動的防御に資する高度な脅威検知といった最先端のニッチ分野にリソースを集中させ、いち早く実績を積むことが重要となります。 また新制度下でのセキュリティ格付けを積極的に取得したり、制度構築に貢献するなど、サプライチェーンの中で小さくとも極めて信頼できるパートナーとしての地位を確立することが成長への最短ルートとなります。
Googleの研究部門であるGoogle Researchは2026年3月24日にTurboQuantという新技術を発表しました。 この技術は大規模言語モデルが動作する際に不可欠な会話履歴などの情報を保持するメモリ領域(KVキャッシュ)を、精度を維持したまま従来の6分の1にまで圧縮するアルゴリズムです。 これにより処理速度も最大8倍に向上するという衝撃的な結果が示されています。 これまでは高価なメモリをいかに大量に搭載するかという物理的な物量戦が主流でしたが今回Googleはソフトウェアの力でそのハードウェア依存という限界を打ち破りました。
このニュースによりSKハイニックスやサムスン電子、マイクロン・テクノロジーといった大手メモリメーカーの株価は一斉に下落しました。 メモリ需要の成長スピードにブレーキがかかると市場に受け止められたためです。 特にデータセンターなどで高価なメモリを大量に買い増す必要性が減る可能性があり、これらのメーカーの強気な成長シナリオに修正の見方が入っています。
しかし運用コストが劇的に下がることは、これまで高コストゆえにAIの導入が難しかった分野で活用が広がることも意味します。 小さなIoTデバイスやスマートフォンなどにも高度なAIを搭載できるようになってきます。 AIの開発はハードウェアの増強からソフトウェアやアルゴリズムの進化による効率化へと新たな局面に入ったと言えます。