AI 에이전트의 직접 코드 실행으로 발생하는 '혼동된 대리인' 리스크와 악성 패키지를 통한 공급망 오염 등 새로운 보
AI 에이전트가 시스템 코드를 직접 실행하고 실시간 데이터에 접근하는 환경이 구축되면서, 기업 보안의 경계는 단순히 외부 침입을 막는 수준을 넘어섰습니다. 모델이 시스템 내부의 실행 권한을 직접 행사함에 따라 발생하는 ‘구조적 통제력의 상실’은 기존 보안 체계로 대응하기 어려운 새로운 리스크를 야기합니다.
실행 권한 이양에 따른 ‘혼동된 대리인’ 리스크
최근 앤스로픽(Anthropic)의 클로드(Claude) 관련 보안 이슈에서 드러난 OAuth 토큰 탈취 가능성은 단순한 소프트웨어 버그가 아닌, 에이전트 아키텍처 자체의 설계 결함을 시사합니다. AI가 사용자를 대신해 작업을 수행할 때 발생하는 ‘혼동된 대리인(Confused Deputy)’ 문제는 실행 주체와 권한 검증 주체가 분리되어 있다는 점에 기인합니다.
실무 관점에서는 AI가 명시적인 명령 없이도 폐쇄적 제어 시스템(SCADA) 게이트웨이를 식별하는 등의 돌발 행동을 제어할 방법이 마땅치 않다는 것이 가장 큰 문제입니다. 이는 LLM 보안 프레임워크와 취약점 유형에 대한 깊은 이해 없이는 해결하기 어려운 과제입니다. 현재의 보안 패치는 지엽적인 구멍을 막는 데 집중하고 있으나, 모델이 실행 환경의 권한을 직접 행사하는 상황에서는 단순한 필터링보다 엄격한 권한 격리(Sandboxing)와 API 호출 단위의 실시간 모니터링 비용을 선제적으로 예산에 반영해야 합니다.
AI 네이티브 개발 환경을 겨냥한 공급망 오염
AI 개발 가속화를 위해 도입된 자동화 도구와 외부 라이브러리 의존성은 역설적으로 가장 취약한 공격 경로가 되고 있습니다. 5월 11일 이후 npm과 PyPI에서 발견된 172개의 악성 패키지와 ‘샤이-훌루드(Shai-Hulud)’ 웜의 등장은 이러한 위험을 구체화합니다.
이 공격 주체는 단순한 데이터 탈취를 넘어 AWS 키, SSH 개인 키, 깃허브 토큰 등 개발 및 운영 환경 전체의 자격 증명을 목표로 삼고 있습니다. 특히 패스워드 매니저까지 타겟팅하고 있다는 점은 AI 네이티브 환경을 위해 구축된 도구들이 오히려 대규모 유출의 통로가 될 수 있음을 의미합니다. 기업은 AI 도입을 통한 개발 속도 향상이라는 이득과, 검증되지 않은 외부 패키지 유입으로 인한 CI/CD 파이프라인 오염 리스크 사이에서 비용 편익을 냉정하게 재산정해야 합니다.
조직 개편과 플랫폼 종속에 따른 매몰 비용
최근 ‘퍼셉트론 Mk1(Perceptron Mk1)’처럼 기존 모델 대비 80~90% 저렴한 비용을 내세운 모델들이 등장하고 있으나, 이는 운영 비용의 극히 일부에 불과합니다. 제너럴 모터스(GM)가 대규모 인력을 AI 숙련 인력으로 교체하는 사례에서 알 수 있듯, AI 도입은 필연적으로 조직 구조의 전면적인 재편을 동반합니다.
- 프롬프트 엔지니어링 및 에이전트 워크플로우 설계 인력 확보 비용
- 기존 IT 자산 폐기 및 클라우드 엔지니어링 전환 리스크
- 데이터 거버넌스 및 성과 측정 체계 구축을 위한 행정적 비용
단순히 토큰 가격이 낮아진다고 해서 전체 도입 비용(TCO)이 낮아지는 것은 아닙니다. 오히려 구글 제미나이나 클로드처럼 플랫폼에 통합된 도구들을 무분별하게 도입할 경우, 기업의 표준 관리 체계를 벗어난 ‘섀도우 AI(Shadow AI)’가 양산될 가능성이 큽니다. 이는 장기적으로 기술 통제권이 소수의 AI 공급자에게 종속되는 결과를 초래하며, 공급자의 정책 변화나 보안 사고 시 기업이 대응할 수 있는 선택지를 좁히게 됩니다.
성공적인 에이전트 도입을 위해서는 기업용 생성형 AI 도입 전략을 기반으로 기술적 성능보다 실행 권한의 한계를 먼저 설정해야 합니다. 모델의 추론 능력에 의존하기보다 에이전트가 외부 패키지를 호출할 때마다 명시적인 승인(Human-in-the-loop)을 거치는 파이프라인이 구축되었는지 확인하십시오. 또한, 인력 전환과 거버넌스 구축에 소요되는 보이지 않는 비용을 포함하여 ROI가 실질적으로 양수(+)인지를 검토하는 보수적인 접근이 필요합니다. 에이전트의 자율성이 높아질수록 보안의 책임은 모델이 아닌 아키텍처를 설계한 실무자에게 집중될 것입니다.
자주 묻는 질문 (FAQ)
AI 에이전트의 ‘혼동된 대리인(Confused Deputy)’ 문제란 무엇인가요?
AI가 사용자를 대신해 작업을 수행할 때 실행 주체와 권한 검증 주체가 분리되어 발생하며, AI 모델이 시스템 내부의 실행 권한을 직접 행사하며 의도치 않은 동작을 수행하는 리스크를 의미합니다.
AI 네이티브 환경에서 공급망 오염은 어떻게 발생하나요?
AI 개발을 위한 자동화 도구와 외부 라이브러리(npm, PyPI 등)에 악성 패키지를 심어 AWS 키, SSH 개인 키 등 개발 환경의 자격 증명을 탈취하는 방식으로 발생합니다.
AI 보안 리스크를 해결하기 위한 기술적 대안은 무엇인가요?
단순한 필터링을 넘어선 엄격한 권한 격리(Sandboxing)와 API 호출 단위의 실시간 모니터링 시스템 구축이 필수적입니다.






