AIによるサイバー攻撃:中朝が最大の脅威「研究段階から実戦段階へ」
2026年は、AIサイバー攻撃が理論段階から実戦段階へ移行した歴史的転換点である。
.jpg)
現状(2026年5月時点)
2026年5月時点において、AIを活用したサイバー攻撃は「研究段階」から「実戦段階」へ移行したと評価されている。特にGoogle Cloud Security傘下のGTIG(Google Threat Intelligence Group)が2026年5月に公表した分析は、生成AIが実際のゼロデイ攻撃に利用された初の確認事例として国際的な注目を集めた。
従来、AIはフィッシング文面生成やマルウェア難読化など補助的用途が中心であったが、2026年には脆弱性探索、攻撃コード生成、侵入後の横展開、検知回避までを半自律的に実行する段階に到達したとされる。特に中国系・北朝鮮系攻撃主体は、AIを単なる効率化ではなく「国家的サイバー戦力増幅装置」として運用している点が特徴である。
欧米の安全保障機関や民間セキュリティ企業では、この変化を「AI Cyber Offensive Transition(AI攻撃転換期)」と位置づけている。Google、マンディアント(Mandiant)、アンソロピック(Anthropic)、レコーデッド・フューチャー(Recorded Future)など複数組織が、2026年をAIサイバー戦争の本格的始動年とみなしている。
概況:AIサイバー攻撃の「転換点」
2025年以前にも、攻撃者が生成AIを用いてマルウェアのコード補完やフィッシングメール作成を行う事例は存在した。しかし2026年の変化は、「AIが未知の脆弱性を自律探索し、その攻撃コードを生成した」とみられる点にある。
GTIGによると、攻撃者は大規模言語モデル(LLM)を利用し、オープンソース管理ツールに存在した認証ロジック上の欠陥を発見し、二要素認証(2FA)を回避するコードを生成していた。この攻撃は実施前に阻止されたが、AIによるゼロデイ開発が実戦投入直前まで進んでいたことが確認された。
この転換点が重要視される理由は、攻撃速度が人間中心のサイクルを超え始めたためである。従来、脆弱性発見から実戦投入までは数週間から数か月を要したが、AIエージェントの導入により、将来的には数時間から数分に短縮される可能性が指摘されている。
史上初の事例(「ゼロデイ脆弱性」の攻撃コード(エクスプロイト)が実戦投入)
2026年5月、Googleは「AIが発見したゼロデイ脆弱性を悪用する攻撃コード」が確認されたと公表した。この事例では、オープンソースのシステム管理ツールに存在したロジック欠陥をAIが解析し、認証回避用攻撃コードを生成したとされる。
GTIGは、攻撃コード内に「幻覚的CVSSスコア」やLLM特有の教科書的コード整形が含まれていたことから、生成AI利用を特定したとしている。これはAI生成コードに見られる特徴的パターンが、逆にフォレンジック指標となった事例でもある。
この事件が歴史的意味を持つ理由は、AIが「既知情報の要約」ではなく、「未知の脆弱性発見」という創発的行為に利用された点にある。アンソロピックやOpenAIの研究でも、最新モデルが脆弱性探索能力を急速に高めていることが確認されていたが、実際の攻撃で確認されたのは今回が初とされる。
特徴
2026年型AIサイバー攻撃の特徴は、「高速化」「大規模化」「自律化」「個別最適化」の4点に整理できる。まず高速化については、AIが24時間継続的にコード解析と脆弱性探索を行えるため、人間より圧倒的に短時間で攻撃コードを生成可能となった。
大規模化については、数千〜数万システムを同時スキャンし、脆弱性発見と侵入試行を自動化できる点が重要である。Internet Bug Bounty(IBB)がAI支援脆弱性報告の急増により受付停止へ追い込まれた事例は、AIによる脆弱性探索の爆発的増加を象徴している。
自律化では、AIエージェントが侵入後の行動選択を行う段階へ移行しつつある。標的環境分析、権限昇格、ラテラルムーブメント、データ探索などを半自律的に実施可能になっている。
個別最適化では、攻撃対象ごとに異なるマルウェアやフィッシング内容をリアルタイム生成できるため、従来型シグネチャ検知が機能しにくくなる。特にポリモーフィック(多形態)マルウェアは、AIにより動的変異が容易になった。
「中国・北朝鮮」が最大の脅威とされる理由
Googleやマンディアントが中国・北朝鮮を最大脅威と位置づける理由は、両国が国家戦略レベルでAIサイバー戦能力を統合しているためである。特に中国は長期的情報戦・インフラ浸透を重視し、北朝鮮は外貨獲得と破壊工作を重視するという差異が存在する。
中国は国家機関、軍、大学、民間企業を統合した大規模研究体制を持ち、AIによる脆弱性探索を「体系的産業」として推進している。一方、北朝鮮は比較的小規模ながら、高度な人的工作と暗号資産窃取を組み合わせ、費用対効果の高いAI攻撃を実施している。
また、中国・北朝鮮はいずれも西側法制度に拘束されにくく、攻撃的AI研究を比較的自由に推進可能である。これに対し欧米企業は、安全性審査や規制への配慮から、高性能攻撃AIの一般公開を制限する傾向が強い。アンソロピックが高性能モデル「Mythos」の全面公開を控えた背景にも、攻撃悪用懸念が存在した。
中国:組織的な脆弱性研究の自動化
中国の特徴は、「脆弱性研究の国家的工業化」にある。レコーデッド・フューチャーによると、中国は脆弱性情報管理制度を強化し、発見されたゼロデイ情報を国家が一元管理する方向へ移行している。
中国人民解放軍(PLA)の再編では、サイバー・情報戦部門が統合強化された。これによりAIを用いた脆弱性探索、ゼロデイ備蓄、重要インフラ潜伏が一体運用される体制が整いつつある。
AI活用の核心は、膨大なソースコードや公開脆弱性情報をLLMへ学習させ、未知脆弱性候補を高速抽出する点にある。従来は熟練リバースエンジニアが数週間かけていた解析工程を、AIエージェントが並列実行する構造へ移行している。
手法
中国系攻撃主体は、AIを利用した自動スキャン、サプライチェーン侵害、クラウド侵入、通信インフラ潜伏を組み合わせる傾向が強い。特に「Volt Typhoon」系列に代表される長期潜伏型作戦では、重要インフラへの事前配置が重視されている。
また、中国系攻撃では「n-day exploit」とAI探索を組み合わせる手法が多い。これは未知ゼロデイを温存しつつ、既知脆弱性でもAIによって攻撃効率を最大化する戦略である。
さらに、中国系攻撃はAIによる検知回避技術に強みを持つ。通信パターン変形、コード動的変異、行動時間分散など、人間的挙動を模倣するAIボット化が進んでいる。
目的
中国の主目的は金銭ではなく、地政学的優位確保である。具体的には、軍事情報窃取、産業スパイ、重要インフラへの事前潜伏、台湾有事を想定した通信・電力遮断準備などが指摘されている。
特に重要なのは「平時浸透・有事起動」モデルである。平時にAIで大量侵入を行い、危機時に同時破壊・情報遮断へ転換する構想が、西側情報機関で強く警戒されている。
AIの導入により、中国は「量的飽和攻撃」を実施可能となった。これは従来なら人的資源不足で不可能だった大規模スキャンや多層侵入を、AIエージェント群で補完する戦略である。
北朝鮮:実利と破壊のためのAI活用
北朝鮮系攻撃主体は、中国と異なり「外貨獲得」が中心目標である。暗号資産窃取、ランサムウェア、IT人材偽装就労、金融侵害などが主要活動となっている。
Googleは、北朝鮮系グループUNC2970がGeminiを利用して標的分析や情報収集を行っていたと報告している。特に防衛産業・サイバー企業の職務情報や組織構造分析にAIが活用された。
北朝鮮の特徴は、人間工作とAIを融合している点にある。生成AIによる自然言語生成能力を利用し、偽装履歴書、採用面接、チャット誘導などを高度化している。
脆弱性の検証
北朝鮮系攻撃では、既知脆弱性に対する攻撃コード検証速度がAIで大幅向上している。従来は入手した攻撃コードを人手検証していたが、現在ではAIが標的環境との適合性確認まで支援する。
また、北朝鮮は公開PoC(概念実証コード)をAIに学習させ、独自変種へ変換する能力を強化している。これにより、既存検知ルールを回避した派生攻撃コードが大量生成される危険性が指摘されている。
ソーシャルエンジニアリング
生成AIが最も実用化された分野の一つがソーシャルエンジニアリングである。北朝鮮系攻撃主体は、自然な日本語・英語・韓国語を用いた偽装通信を大量生成できる。
さらに2026年には、音声クローンやディープフェイク映像を利用したCEO詐欺、採用面接偽装、金融指示偽装が増加した。従来の「不自然なメール」は減少し、人間が真偽判断できない水準へ接近している。
外貨獲得
北朝鮮は制裁回避のため、サイバー攻撃による外貨獲得を国家戦略化している。AI導入により、暗号資産取引所への侵入速度、標的選定効率、フィッシング精度が向上した。
特にAIは、多数の小規模攻撃を並列実施する能力に優れる。これにより北朝鮮は少人数でも世界規模の金融攻撃を展開可能となっている。
主な攻撃手法の変遷
AI導入以前の攻撃は、人間中心・静的・反復型であった。これに対し2026年以降は、AI中心・動的・適応型へ移行している。
従来攻撃では、人的技量差が大きな制約であった。しかしAI導入により、中級攻撃者でも高度攻撃コードを利用可能になり、「攻撃の民主化」が進行している。
従来の状況
従来型攻撃では、フィッシング、既知攻撃コード、固定型マルウェアが主流だった。攻撃サイクルは比較的長く、検知後の封じ込めが可能なケースも多かった。
また、攻撃者は限定的人的資源に依存していたため、大規模同時侵入には制約が存在した。高度攻撃は一部国家主体に限定されていた。
初期侵入(定型文のフィッシング)
従来の初期侵入では、テンプレート型メールや粗雑な翻訳文が多用されていた。文法誤りや不自然表現が検知手掛かりとなっていた。
しかしAI以前でも、標的型メールは一定効果を持っていたため、生成AI導入は既存脅威を「質的強化」する役割を果たした。
脆弱性調査(手動によるコード解析)
従来の脆弱性発見は、高度技能を持つ研究者によるリバースエンジニアリング中心だった。解析速度は個人能力へ依存していた。
ゼロデイ攻撃コードは極めて高価であり、国家主体または高度犯罪組織のみが実戦運用可能だった。
検知回避(静的な難読化)
旧来型マルウェアは、固定難読化や暗号化で検知回避を試みていた。しかし一度解析されれば、シグネチャ更新で大量検知可能だった。
そのため、防御側は「既知パターン検知」で一定優位を維持していた。
攻撃対象(OSやアプリの脆弱性)
従来攻撃の主対象は、OS、VPN、メールサーバ、ブラウザ、業務アプリであった。対象は比較的明確であり、境界防御も機能していた。
AIによる進化(2026年現在)
2026年時点では、AIは攻撃全工程へ統合されつつある。Reconnaissance(偵察)、Weaponization(武器化)、Delivery(送達)、Exploitation(侵入)、Persistence(永続化)まで自動化が進行した。
さらにAIは「環境適応型」になっており、防御反応に応じて戦術変更する能力を持ち始めている。これは従来型セキュリティモデルを根本的に揺るがす変化である。
初期侵入(超写実的な音声・映像偽装(ディープフェイク))
2026年には、AI音声模倣による経営者詐欺が急増した。映像ディープフェイクも組み合わされ、リアルタイム会議偽装が可能となっている。
従来のメール訓練だけでは防御困難となり、多要素認証や音声認証も突破され始めている。
脆弱性調査(AIエージェントによる自動スキャンとコード生成)
AIエージェントは、公開コード、CVE情報、GitHub差分、PoCコードを横断解析し、自動的に攻撃コード候補を生成可能となった。
特にLLMは「コード意味理解」に優れるため、単純シグネチャではなく、ロジック欠陥発見へ進化している。Googleが確認した2FA回避攻撃コードは、その代表例である。
検知回避(AIによるポリモーフィック(多形態)マルウェアの開発)
AIは、実行ごとにコード構造を変化させるポリモーフィックマルウェア生成を容易化した。これにより、シグネチャ型EDRやAV製品の有効性が低下している。
さらにAIは、防御側ログ分析パターンを逆学習し、「疑われにくい行動」を選択する段階へ進化しつつある。
攻撃対象(AIモデル自体への攻撃(プロンプトインジェクション等))
2026年の新たな攻撃面は、AIシステムそのものに向けられている点である。プロンプトインジェクション、モデル抽出、データ汚染、敵対的サンプル攻撃が急増している。
特に企業内AIエージェントは、メール、文書、APIへ接続されているため、侵害されると内部ネットワーク横断侵入の踏み台となる危険性がある。
課題
最大課題は、防御側の制度・人材・法規制がAI攻撃速度へ追従できていない点にある。パッチ適用前に攻撃コードが量産される状況では、従来型運用では限界がある。
また、AI利用の境界線が曖昧であるため、防御研究と攻撃研究の区別が困難になっている。高性能モデル公開自体がリスクとなる問題も深刻化している。
シャドーAIエージェントの蓄積
企業内では、管理されていないAIツールやエージェントが急増している。これら「シャドーAI」は、認証情報漏洩、内部データ流出、プロンプト汚染の温床となる。
特に外部LLMと連携した業務自動化は、想定外のデータ送信経路を生み出すため、新たな内部脅威として警戒されている。
防御の自動化(Agentic SOC)
防御側もAI導入を急速に進めている。Googleは「Agentic SOC」という概念を提示し、AIエージェントによる脅威分析、自動封じ込め、インシデント対応を推進している。
将来的には、人間アナリストがAIエージェント群を監督し、AI対AIのサイバー戦が常態化する可能性が高い。攻撃速度へ対抗するには、防御側も自動化せざるを得ない。
今後の展望
2026年以降、AIサイバー攻撃はさらに「完全自律化」へ向かうと予測される。特にマルチエージェント型攻撃システムは、役割分担型で侵入・横展開・破壊を並列実施する可能性がある。
また、重要インフラ、軍事通信、衛星ネットワーク、AIクラウド基盤が主要戦場になると考えられる。中国・北朝鮮・ロシアなど国家主体は、平時からAIを用いた潜伏を継続する可能性が高い。
一方で、防御AIも急速に進化している。AIによるコード監査、自動パッチ生成、リアルタイム異常検知が高度化すれば、長期的には防御側優位へ転換する可能性も残されている。
まとめ
2026年は、AIサイバー攻撃が理論段階から実戦段階へ移行した歴史的転換点である。Googleが確認したAI支援ゼロデイ攻撃コード事例は、その象徴的事件となった。
特に中国は国家主導型の組織的AI攻撃能力を構築し、北朝鮮は実利追求型AI犯罪を高度化している。両国は目的こそ異なるが、AIをサイバー戦力増幅装置として運用している点で共通する。
今後は「AI対AI」のサイバー空間競争が激化する可能性が高い。企業・政府・軍事組織は、人間中心型防御から、AIエージェントを組み込んだ自律防御体制への転換を迫られている。
参考・引用リスト
- Google Cloud Security – Cybersecurity Forecast 2026
- Reuters – Hackers pushing innovation in AI-enabled hacking operations, Google says
- AP News – Google disrupts hackers using AI to exploit an unknown weakness
- The Verge – Google stopped a zero-day hack that it says was developed with AI
- The Guardian – AI-powered hacking has exploded into industrial-scale threat, Google says
- Recorded Future – China’s Zero-Day Pipeline: From Discovery to Deployment
- Anthropic Red Team – 0-Days
- The Hacker News – Google Reports State-Backed Hackers Using Gemini AI for Recon and Attack Support
- The Hacker News – Google Links China, Iran, Russia, North Korea to Coordinated Defense Sector Cyber Operations
- arXiv – AI Cyber Risk Benchmark: Automated Exploitation Capabilities
- arXiv – Practical Black-Box Attacks against Machine Learning
- arXiv – Cyber Deception against Zero-day Attacks: A Game Theoretic Approach
- arXiv – A framework for mitigating zero-day attacks in Iot
検証:国家戦略としての「サイバー戦の自動化」
2026年時点で最も重要な変化は、AI活用が単なる「攻撃効率化」を超え、国家戦略レベルで「サイバー戦の自動化」へ移行している点にある。従来のサイバー戦は、高度技能を持つ少数専門家に依存する「人的集約型」であったが、現在はAIエージェント群を用いる「計算資源集約型」へ転換しつつある。
特に中国は、AIを国家安全保障の中核技術として位置づけており、サイバー・電子戦・情報戦・認知戦を統合する方向へ制度改編を進めている。人民解放軍(PLA)の情報支援部隊再編や、中国国家互联网応急中心(CNCERT)の脆弱性情報管理制度は、その制度的裏付けとされる。AIによる脆弱性探索を国家備蓄化する構想は、従来の「人間によるハッキング」を超え、「脆弱性供給網(Zero-day Supply Chain)」そのものを国家管理下へ置く試みと解釈できる。
この構造は、冷戦期の核兵器競争と類似する側面を持つ。従来のゼロデイ攻撃コードは高価で希少な「戦略兵器」であったが、AIによって生成コストが低下すると、「大量備蓄可能なデジタル弾薬」へ変化する。つまり国家は、AIを用いて平時から膨大な脆弱性を探索・保有し、有事に一斉起動する能力を獲得しつつある。
GTIG(Google Threat Intelligence Group)が警戒するのは、この「平時潜伏・有事起動」モデルである。特に中国系APTは、短期的破壊より、通信・電力・物流・港湾・衛星ネットワークへの長期潜伏を重視していると分析されている。AIはこの潜伏作業を大規模化し、数万単位の標的へ同時侵入を可能にする。
一方、北朝鮮の自動化戦略は「国家財政維持」に直結している。制裁下の北朝鮮は、暗号資産窃取やランサムウェアによる外貨獲得を継続しており、AIはその効率を飛躍的に高める装置となった。特に生成AIは、少人数でも大量のフィッシング、SNS偽装、採用詐欺を展開可能にするため、国家規模の人的不足を補完する役割を果たしている。
ここで重要なのは、AIが「攻撃者数の不足」を埋めるという点である。従来の国家サイバー戦は、高度人材不足が制約であった。しかしAIエージェントは、24時間稼働し、疲労せず、同時並列で侵入を試行できる。つまりAIは、国家にとって「デジタル兵士」の役割を担い始めている。
さらに将来的には、攻撃AI同士がリアルタイムで連携する「マルチエージェント型サイバー戦」へ移行する可能性が高い。偵察AI、侵入AI、横展開AI、データ窃取AI、検知回避AIが役割分担を行い、人間指揮官は戦略目標だけを設定する構造である。このモデルは、従来のSOC(Security Operations Center)の対応速度を根本的に超越する可能性がある。
深掘り:グーグルが提唱する「Agentic IAM」
Googleが2026年に強調し始めた概念の一つが「Agentic IAM(Agentic Identity and Access Management)」である。これは、AIエージェント時代に対応した新しい認証・権限管理モデルを指す。
従来のIAM(Identity and Access Management)は、「人間ユーザー」を前提としていた。具体的には、社員アカウント、端末、VPN、認証情報を管理対象としていた。しかし生成AI時代では、企業内部に無数のAIエージェントが存在するようになる。営業AI、開発AI、監査AI、チャットAI、業務代行AIなどがAPIや社内DBへ接続するため、「AI自体」が新たな主体(Identity)となる。
Googleが問題視するのは、「AIエージェントが過剰権限を持つ危険性」である。たとえば社内AIアシスタントが、メール、GitHub、クラウド、ERPへ横断接続している場合、1つ侵害されるだけで全社横断侵入が可能となる。これは従来の単一アカウント侵害より遥かに危険である。
Agentic IAMでは、AIエージェントごとに「最小権限」「動的権限制御」「コンテキスト依存認証」を適用する構造が提唱されている。つまりAIは常時フル権限を持たず、必要時のみ限定的権限を取得する。また、通常と異なる行動を行った場合には、自動的に権限剥奪や隔離が行われる。
この思想は、「ゼロトラスト(Zero Trust)」のAI拡張版と位置づけられる。従来のゼロトラストは、「人間を信用しない」ことを原則としたが、Agentic IAMでは「AIも信用しない」。つまり企業内部のAIエージェントですら潜在的侵害対象として扱う。
さらに重要なのは、「AI対AI認証」の問題である。将来的には、AIエージェント同士がAPI経由で自律連携する。その際、「どのAIが、どのAIへ、どの権限で接続するのか」をリアルタイム管理する必要がある。従来の人間中心IAMでは、この粒度へ対応できない。
Googleは、将来のSOCが「人間+AIチーム」へ変化すると予測している。そこではAIエージェントがインシデント分析、ログ相関、脅威封じ込めを行い、人間は戦略判断のみ担当する。そのためIAMも、「人間中心」から「エージェント中心」へ再設計を迫られている。
分析:多層防御の「新次元」
AI時代の防御で最も重要な変化は、多層防御(Defense in Depth)が「静的構造」から「動的適応構造」へ変化している点にある。
従来の多層防御は、FW、IDS/IPS、EDR、SIEM、MFAなどを積み重ねる「固定防御線」だった。しかしAI攻撃は、検知ルールを学習し、通信パターンを変化させ、環境に適応する。そのため固定型防御は徐々に限界を迎えている。
Googleが提唱するAgentic SOCは、この問題に対し「AIによる防御自動化」で対抗する構想である。AIがログ解析、脅威分類、異常検知、封じ込め、インシデント優先順位付けをリアルタイム実行し、人間より高速に反応する。
ここで重要なのは、防御側AIが「適応型」である点である。従来のEDRは既知シグネチャ依存であったが、AI SOCでは通常行動ベースで異常検知を行う。そのため未知マルウェアやゼロデイでも、行動異常から検出可能となる。
さらに、防御は「単一点防御」から「環境全体の自己修復」へ進化している。たとえば侵害兆候を検知したAIが、自動的にネットワーク分離、認証トークン失効、コンテナ再生成、アクセス制御変更を行う構造である。これは生物学的免疫系に近い。
AI時代では、「完全防御」は不可能という前提がさらに強化される。そのため重要なのは、「侵入を許しても高速封じ込めできるか」へ移行する。これは従来の「境界防御」中心思想を大きく変える。
また、AI防御は「データ品質依存」という新問題も抱える。攻撃者がログ汚染や敵対的サンプルを投入すれば、防御AI自体が誤判断する危険性がある。つまり防御AIも攻撃対象になる。
この結果、多層防御は単なる技術スタックではなく、「AI同士の継続的適応競争」へ変質している。将来的には、攻撃AIと防御AIが秒単位で互いの行動を学習・修正し続ける構図になる可能性が高い。
「AIが手伝ってくれる時代」から「AIが自律的に戦う時代」に移行
2023〜2024年頃までの生成AIは、「人間の補助ツール」として理解されていた。コード補完、文書要約、脆弱性解説、ログ整理など、人間が最終判断を行う「支援型AI」が中心だった。
しかし2026年時点では、AIは「自律的行動主体」へ変化し始めている。特にAIエージェントは、目標を与えるだけで、情報収集、実行計画、ツール利用、結果評価まで自律実施できる。これは従来のチャットボットとは本質的に異なる。
サイバー攻撃において、この変化は極めて重大である。従来は「人間が攻撃し、AIが補助する」構図だった。しかし現在は、「AIが攻撃し、人間が監督する」方向へ移行している。
Googleやアンソロピックの研究者が懸念しているのは、この自律性が「攻撃速度」を爆発的に高める点である。人間は睡眠、疲労、認知負荷、言語制約を受けるが、AIエージェントは継続的に数千対象へ同時侵入を試行できる。
さらに危険なのは、AIが「戦術学習」を行う可能性である。たとえば防御側反応を分析し、「この企業ではこのEDR回避手法が有効」と自律学習すれば、攻撃最適化が指数関数的に進む。
これは従来の「マルウェア進化」と異なる。過去は人間開発者がコード改良していたが、将来はAIが自らコードを書き換え、自己改良する可能性がある。つまり「自己進化型サイバー兵器」への接近である。
一方、防御側も同じ方向へ進化している。Agentic SOCでは、防御AIが侵害分析、脅威相関、封じ込め判断を自律実施する。つまり将来のサイバー空間では、「AI攻撃群」と「AI防御群」が高速競争する構造になる。
この段階では、人間の役割は「戦術実行者」ではなく、「戦略監督者」へ変わる可能性が高い。つまり人間は、AI群へ目標と制約条件を与え、結果を監督する立場へ移行する。
結果として、2026年は「AIが人間を補助する時代」の終焉と、「AIが自律的に戦う時代」の始点と位置づけられる可能性が高い。これは単なる技術変化ではなく、安全保障、企業防衛、国家主権、戦争概念そのものを再定義する転換点である。
総括
2026年時点におけるAIサイバー攻撃の最大の特徴は、それが単なる「新しい攻撃ツール」ではなく、サイバー戦争そのものの構造を変質させ始めている点にある。従来のサイバー攻撃は、人間の技能、時間、人的資源、経験値に大きく依存していた。しかし生成AIとAIエージェントの急速な発展により、攻撃側は「人的制約」を部分的に克服しつつある。これは単なる効率化ではなく、「攻撃の工業化」「攻撃の自律化」「攻撃の常時化」を意味する。
特に2026年にGTIG(Google Threat Intelligence Group)が公表した「AIが関与したゼロデイ攻撃コード実戦投入事例」は、AIサイバー攻撃史における転換点と位置づけられる。この事例の本質は、AIが既知情報を要約しただけではなく、「未知脆弱性の発見」と「攻撃コード生成」に関与した点にある。従来、ゼロデイ攻撃コードの開発は高度専門家の領域であり、時間・コスト・技能が大きな制約となっていた。しかしAIは、コード解析、ロジック推論、脆弱性候補抽出、PoC生成を高速並列化できるため、攻撃サイクル全体を圧縮し始めている。
この変化によって、サイバー空間における「時間」の概念そのものが変化した。従来は、脆弱性発見から攻撃実戦投入まで一定の時間差が存在し、防御側にもパッチ適用や封じ込めの余地があった。しかしAIエージェントが自律的に脆弱性探索と攻撃コード開発を行うようになると、その猶予時間は極端に短縮される可能性がある。将来的には、脆弱性公開から数時間以内にAI生成攻撃コードが流通する状況すら想定されている。
さらに重要なのは、AIが「攻撃者数の不足」を補完している点である。従来、高度サイバー攻撃を実施できるのは、一部国家機関や熟練ハッカー集団に限られていた。しかしAIによって、比較的低技能の攻撃者でも、高度攻撃コード、自然なフィッシング、多形態マルウェアを利用可能となった。これは「攻撃の民主化」とも呼ばれる現象であり、サイバー脅威の裾野を急速に拡大させている。
この潮流の中で、中国と北朝鮮が特に危険視される理由は、両国がAIを国家戦略レベルで統合しているためである。中国は、人民解放軍、研究機関、大学、民間企業を横断する形で、AIサイバー戦能力を長期的に構築している。中国型モデルの特徴は、「脆弱性研究の工業化」にある。AIを利用して大量のコード解析とゼロデイ探索を行い、それを国家戦略資源として蓄積する構造である。
特に中国系APTは、短期的破壊よりも、「平時潜伏・有事起動」を重視していると分析されている。通信、港湾、電力、物流、衛星などの重要インフラへ長期間潜伏し、地政学的危機時に一斉妨害を行う構想である。AIは、この長期潜伏作業を大規模化し、人間では不可能な規模の標的群へ同時侵入を可能にする。つまりAIは、中国にとって「情報戦力の量産装置」として機能している。
一方、北朝鮮は中国とは異なり、「実利」と「国家財政維持」を主目的としてAIを利用している。制裁下の北朝鮮は、暗号資産窃取、ランサムウェア、金融侵害、採用詐欺などを通じて外貨を獲得しているが、生成AIはこれらの攻撃効率を劇的に向上させた。特に自然言語生成能力は、フィッシング、SNS偽装、履歴書詐欺、面接偽装など、人間工作型攻撃を高度化している。
ここで注目すべきは、AIが「人間的挙動の模倣」を急速に進化させている点である。従来のフィッシングメールは、不自然な文法や翻訳精度の低さが検知手掛かりとなっていた。しかし2026年時点では、生成AIによって自然な日本語・英語・韓国語が大量生成され、従来型訓練では識別困難になりつつある。さらに音声クローンや映像ディープフェイクが組み合わされることで、経営者詐欺や認証突破の危険性が急速に増大している。
また、AIは単に侵入を高度化するだけではなく、「検知回避」そのものを変質させている。従来のマルウェアは、静的難読化や暗号化を用いていたが、一度解析されるとシグネチャ更新で大量検知可能だった。しかしAIによるポリモーフィック(多形態)マルウェアは、実行ごとにコード構造や通信パターンを変化させる。そのため、従来型EDRやAV製品では追跡困難になりつつある。
加えて、攻撃対象そのものも変化している。従来の攻撃対象はOS、VPN、ブラウザ、サーバアプリケーションなどが中心であった。しかし2026年時点では、「AIモデルそのもの」が新たな攻撃面となっている。プロンプトインジェクション、モデル抽出、敵対的サンプル、データ汚染など、AI特有の脆弱性が急増している。企業内部のAIエージェントがメール、クラウド、DB、APIへ広範接続するようになると、それ自体が新しい侵入経路となる。
この問題を受けて、Googleは「Agentic IAM」という新概念を提唱している。これは、AIエージェント時代に対応した認証・権限管理モデルであり、「AIを信用しない」という思想を前提としている。従来のIAMは人間ユーザー中心だったが、今後は社内に無数のAIエージェントが存在するため、「AI自身」を認証・監査対象として扱う必要がある。
Agentic IAMの本質は、「AI対AI」のアクセス制御にある。将来的には、AIエージェント同士が自律的にAPI接続し、タスク分担を行う。そのため、「どのAIが、どの権限で、どのシステムへ接続するのか」をリアルタイム制御しなければならない。これは従来の人間中心IAMでは対応不可能な領域であり、ゼロトラスト思想のAI拡張版と位置づけられる。
さらに、防御側もAI導入を急速に進めている。Googleが提唱する「Agentic SOC」は、AIによる脅威分析、自動封じ込め、ログ相関分析、異常検知を行う次世代SOC構想である。従来のSOCは、人間アナリストが膨大なログを確認していたが、AI時代では、その速度では対応不能になる可能性が高い。そのため、防御側も「AIによる防御自動化」を進めざるを得ない。
ここで重要なのは、多層防御の概念そのものが変質している点である。従来の多層防御は、FW、IDS、EDR、SIEMなどを積み重ねる「固定防御線」だった。しかしAI攻撃は、防御ルールを学習し、通信パターンを変形し、行動を動的変化させる。そのため、防御側も「適応型AI」で対抗する必要が生じている。
結果として、将来的なサイバー空間は、「AI攻撃群」と「AI防御群」がリアルタイム競争する構図へ移行する可能性が高い。攻撃AIが侵入経路を探索し、防御AIが封じ込めを行い、双方が互いの行動を学習し続ける。この段階では、人間は戦術実行者ではなく、「AI群を監督する戦略指揮官」へ役割変化する可能性がある。
つまり現在進行している変化の本質は、「AIが人間を手伝う時代」から、「AIが自律的に戦う時代」への移行である。これは単なる技術進歩ではなく、安全保障、国家主権、企業防衛、戦争概念そのものを再定義する歴史的転換点である。
従来、人類は核兵器、航空戦力、宇宙技術などを通じて戦争の自動化を進めてきた。しかしAIサイバー戦は、それらと異なり、「平時と有事の境界」を極めて曖昧にする。AIは24時間常時稼働し、平時から潜伏、探索、分析、侵入を継続できるため、戦争状態の開始点が不明瞭になる。その意味で、AIサイバー戦は「終わらない低強度戦争」を常態化させる可能性を持つ。
また、この問題は国家安全保障だけではなく、民間企業や一般社会にも直接影響する。企業内部のシャドーAI、生成AIによる情報流出、AIエージェント侵害などは、既に現実問題化している。今後は、企業のIT管理、ガバナンス、認証制度、SOC運用、人材育成まで、全面的再設計が求められる可能性が高い。
総合的に見ると、2026年は「AIサイバー戦元年」と呼び得る歴史的転換期に位置している。Googleが警鐘を鳴らした背景には、単なる技術的懸念ではなく、「サイバー空間の主導権がAIへ移行し始めている」という深刻な認識が存在する。中国や北朝鮮が先行的にAIサイバー戦能力を国家戦略へ統合している現状は、今後の国際安全保障環境に長期的影響を与える可能性が高い。
今後、人類は「AIをどこまで攻撃自律化に利用するのか」という根源的問題へ直面することになる。これは単なる情報セキュリティ問題ではなく、「AI時代の戦争倫理」「国家主権」「技術統制」「人間の意思決定権」を巡る文明的課題へ発展しつつあるのである。
