Key Takeaways:
- Googleは、人工知能(AI)モデルを使用して開発されたと思われる初のゼロデイ脆弱性攻撃を阻止したと発表しました。
- この攻撃ツールはPythonスクリプトで実装され、2段階認証(2FA)を回避するものでした。コードには教育的なドキュメント文字列など、LLM生成特有の特徴が見られました。
- この事案は、AIがサイバー脅威を加速させるという警告が現実となったことを裏付けており、国家主導の攻撃者も脆弱性調査にAIを活用しています。
Key Takeaways:

Googleは月曜日、同社が人工知能(AI)を用いて開発されたと考える初のゼロデイ脆弱性攻撃(エクスプロイト)を使用したサイバー犯罪活動を阻止したと発表しました。これは、セキュリティ専門家が企業のサイバー脅威環境を劇的に悪化させると警告してきた重大な節目となります。
Googleの脅威インテリジェンス部門Mandiantのチーフアナリスト、ジョン・ハルトクイスト氏はレポートの中で、「その時は既に来ている。AI主導の脆弱性とエクスプロイトの時代はすでに到来しているのだ。攻撃者はより速く動けるようになるため、AIは大きなアドバンテージになるだろう」と述べています。
Pythonスクリプトとして実装されたこのエクスプロイトは、人気のオープンソースWeb管理ツールにある既知ではない脆弱性を標的とし、攻撃者が2段階認証(2FA)を回避することを可能にするものでした。特定のツール名や攻撃者の名前は公表されていませんが、Googleはエクスプロイトコードの作成にAIモデルが使用されたことに「高い確信」を持っているとしています。
この発見は、サイバー攻撃におけるAIの活用が理論上の危険から確認された現実へと移行したことを示す重要な転換点です。AIモデルは、ソフトウェアの脆弱性を発見し武器化するために必要な時間とスキルを大幅に削減できるため、この展開はあらゆる業界におけるセキュリティ体制の広範な再評価を強いる可能性があります。
Googleがこのエクスプロイトの起源をAIであると確信した根拠は、コード自体にあります。同社は、Pythonスクリプトに教育的なドキュメント文字列(docstrings)が豊富に含まれていること、CVSSスコアが「ハルシネーション(幻覚)」によって生成されていること、そして大規模言語モデル(LLM)の学習に使用されるデータに特有の教科書的な構造化フォーマットが見られることを指摘しました。
脆弱性自体は、ハードコードされた信頼の前提から生じる高レベルのセマンティック・ロジック・エラーであり、膨大なコードベースで学習されたLLMが特に得意とする種類の誤りでした。
レポートではまた、金銭目的のサイバー犯罪者だけでなく、国家主導のグループもAIを利用していることを強調しています。Googleのインテリジェンスチームは、中国や北朝鮮の国家支援グループが攻撃能力を強化するためにLLMを積極的に利用していることを確認しています。
中国関連の攻撃者「UNC2814」は、AIにセキュリティ専門家として振る舞うよう指示する「ジェイルブレイク(脱獄)」の手法を用い、TP-Linkのファームウェアの脆弱性調査を行っていたことが観察されました。また、「APT45」として追跡されている北朝鮮のグループは、既知の脆弱性を再帰的に分析し、概念実証(PoC)エクスプロイトを検証するために数千回の反復的なプロンプトを送信したとされており、AIの支援なしでは実用的でないほど強力な兵器庫を構築しているとのことです。
この事案は、高度なAIが持つ「デュアルユース(軍民両用)」の性質を浮き彫りにしています。脅威主体が攻撃を加速させるためにAIを利用する一方で、同じテクノロジーが重要な防御ツールとしても位置づけられています。AnthropicやOpenAIなどの企業は、防御側が自社システムの脆弱性を発見して修正するのを支援するための特殊なAIモデルを開発しています。
これにより、AI搭載の攻撃者対AI搭載の防御者という、サイバーセキュリティ軍備拡張競争の新たな戦線が形成されました。当面の間、専門家は、前例のない規模とスピードで自社ソフトウェアの弱点が精査される世界に企業が適応しようと奔走する中で、サイバーセキュリティのリスクが著しく上昇する「過渡期」が続くと予測しています。
この記事は情報提供のみを目的としており、投資アドバイスを構成するものではありません。