Key Takeaways:
- 구글은 인공지능(AI) 모델을 사용하여 개발된 것으로 추정되는 최초의 제로데이 취약점 공격을 차단했다고 발표했습니다.
- 파이썬 스크립트로 구현된 이 공격은 2단계 인증(2FA)을 우회했으며, 코드에는 교육용 독스트링과 같은 LLM 생성의 특징이 나타났습니다.
- 이번 사건은 AI가 사이버 위협을 가속화할 것이라는 경고가 현실화되었음을 확인시켜 주었으며, 국가 차원의 공격자들도 취약점 연구에 AI를 활용하고 있습니다.
Key Takeaways:

구글은 월요일, 인공지능(AI)으로 개발된 것으로 판단되는 최초의 제로데이 취약점 공격이 포함된 사이버 범죄 활동을 저지했다고 밝혔습니다. 이는 보안 전문가들이 기업의 사이버 위협 환경을 급격히 악화시킬 것이라고 경고해 온 중대한 이정표입니다.
구글 맨디언트(Mandiant) 위협 인텔리전스 부문의 수석 분석가인 존 헐트퀴스트(John Hultquist)는 보고서에서 "이미 현실이 되었습니다. AI 기반의 취약점 탐지 및 공격의 시대가 이미 도래했습니다. 공격자들은 훨씬 더 빠르게 움직일 수 있기 때문에 AI는 그들에게 엄청난 이점이 될 것입니다"라고 말했습니다.
파이썬 스크립트로 구현된 이 공격은 널리 사용되는 오픈 소스 웹 관리 도구의 알려지지 않았던 취약점을 겨냥하여 공격자가 2단계 인증(2FA)을 우회할 수 있도록 설계되었습니다. 특정 도구와 위협 행위자의 이름은 밝혀지지 않았지만, 구글은 AI 모델이 공격 코드를 생성하는 데 사용되었다는 점에 대해 "높은 확신"을 가지고 있다고 밝혔습니다.
이번 발견은 사이버 공격에서 AI의 활용이 이론적 위험에서 확인된 현실로 옮겨가는 중요한 전환점입니다. AI 모델은 소프트웨어 취약점을 발견하고 무기화하는 데 필요한 시간과 기술 수준을 획기적으로 낮출 수 있기 때문에, 이번 사태는 모든 산업 전반에 걸쳐 보안 태세를 전면적으로 재평가하게 만들 수 있습니다.
구글이 이 공격의 기원을 AI로 확신하는 근거는 코드 자체에 있습니다. 구글은 해당 파이썬 스크립트에 방대한 양의 교육용 독스트링(docstrings), "환각(hallucinated)"된 CVSS 점수, 그리고 대규모 언어 모델(LLM)을 훈련하는 데 사용되는 데이터의 특징인 교과서적인 구조화 형식이 포함되어 있다는 점에 주목했습니다.
취약점 자체는 하드코딩된 신뢰 가정으로 인해 발생하는 상위 수준의 의미론적 논리 결함이었으며, 이는 방대한 코드베이스로 훈련된 LLM이 특히 잘 식별해내는 유형의 오류입니다.
보고서는 또한 금전적 이득을 노리는 사이버 범죄자들뿐만 아니라 국가 지원을 받는 조직들도 AI를 사용하고 있다고 강조했습니다. 구글 인텔리전스 팀은 중국과 북한의 국가 지원 단체들이 공격 능력을 강화하기 위해 LLM을 적극적으로 사용하는 것을 목격했습니다.
중국 연계 조직인 UNC2814는 AI에게 보안 전문가처럼 행동하도록 지시하는 페르소나 기반 탈옥(jailbreak) 기법을 사용하여 TP-Link 펌웨어의 취약점 연구를 수행한 것으로 관찰되었습니다. APT45로 추적되는 북한 그룹은 알려진 취약점을 재귀적으로 분석하고 개념 증명(PoC) 공격을 검증하기 위해 수천 개의 반복적인 프롬프트를 보낸 것으로 알려졌으며, 이는 AI의 도움 없이는 불가능했을 강력한 무기고를 구축한 것입니다.
이번 사건은 첨단 AI의 이중적 특성을 극명하게 보여줍니다. 위협 행위자들이 공격을 가속화하기 위해 AI를 사용하는 반면, 동일한 기술이 핵심적인 방어 도구로도 배치되고 있습니다. Anthropic 및 OpenAI와 같은 기업들은 방어자가 자신의 시스템에서 취약점을 찾아 패치할 수 있도록 돕는 특화된 AI 모델을 개발하고 있습니다.
이는 AI 기반 공격자와 AI 기반 방어자가 맞붙는 사이버 보안 군비 경쟁의 새로운 전선을 형성합니다. 전문가들은 기업들이 전례 없는 규모와 속도로 소프트웨어 약점을 탐색당하는 세상에 적응하기 위해 분투함에 따라, 당분간 사이버 보안 위험이 크게 증가하는 "과도기적 시기"가 지속될 것으로 예측하고 있습니다.
이 기사는 정보 제공 목적으로만 작성되었으며 투자 조언을 구성하지 않습니다.