구글 펑션젬마부터 앤트로픽 스킬까지, 2026년 AI 에이전트 시대의 핵심 기술과 기업 도입 전략을 분석합니다. 보안과 비용 리스크를 극복하는 실전 아키텍처를 지금 확인하세요.
샘 알트먼 오픈AI CEO를 학습시킨 AI가 주인공인 다큐멘터리 ‘딥페이킹 샘 알트먼’이 내년 초 개봉합니다. 감독 애덤 발라 러프는 “알트먼의 말이 맞다면, 이 모델은 바로 알트먼이어야 한다”라고 꼬집었죠. 2025년 테크 씬을 관통하는 날카로운 예언입니다. 이제 AI는 그럴싸한 문장을 뱉어내는 챗봇의 껍데기를 벗고 있습니다. 스스로 판단하고 도구를 선택하며 업무를 완결 짓는 에이전트(Agent)로의 진화가 시작된 셈입니다.
현장에서 느끼는 변화의 속도는 무서울 정도입니다. 구글, 앤트로픽, 미라 무라티의 싱킹머신즈랩(TML)까지 모든 플레이어가 ‘말’이 아닌 ‘행동’에 사활을 걸고 있습니다. 뻔한 뉴스 요약은 걷어내고, 실무자가 지금 당장 주목해야 할 기술의 실체와 도입 전략을 정리해봤습니다.
구글과 앤트로픽의 승부수, ‘로컬 실행’과 ‘스킬 모듈화’
구글이 공개한 ‘펑션젬마(FunctionGemma)’와 앤트로픽의 ‘에이전트 스킬(Agent Skills)’은 에이전트 시대의 두 축을 보여줍니다. 경량화된 실행력과 지식의 규격화입니다.
펑션젬마: 2억 7천만 개의 파라미터가 만드는 엣지 에이전트
구글의 펑션젬마는 덩치만 키우던 LLM 경쟁에 찬물을 끼얹습니다. 고작 2억 7,000만 개의 매개변수를 가진 이 소형 모델(sLM)은 오로지 ‘함수 호출(Function Calling)’에만 최적화되었습니다.
작동 원리는 명확합니다. 사용자가 “내일 오후 3시에 회의 잡아줘”라고 말하면, 모델은 자연어 해석을 넘어 즉시 실행 가능한 API 코드로 변환합니다. 내부 테스트 결과, 범용 소형 모델의 함수 호출 정확도가 58%에 머물 때 펑션젬마는 85%까지 치솟았습니다.
진짜 가치는 로컬 실행에 있습니다. 클라우드 연결 없이 스마트폰이나 IoT 기기 내부에서 독립적으로 동작합니다. 보안이 생명인 기업 내부망이나 딜레이가 허용되지 않는 실시간 제어 환경에서 펑션젬마는 ‘트래픽 컨트롤러’ 역할을 수행하게 될 겁니다. 복잡한 건 거대 모델에 넘기고, 단순 실행은 엣지에서 끝내는 이원화 전략이 현실화되었습니다.
앤트로픽 에이전트 스킬: 지능을 부품처럼 갈아 끼우는 시대
앤트로픽은 에이전트 스킬을 오픈 소스로 풀었습니다. 단순한 기능 추가가 아닙니다. 에이전트가 특정 업무를 수행하기 위해 필요한 지침, 스크립트, 리소스를 ‘SKILL.md’라는 규격화된 파일로 패키징한 것입니다.
기존 LLM의 치명적인 약점은 전문적인 절차 지식이 부족하다는 점이었습니다. 파워포인트를 만들라고 시키면 내용은 채우지만, 기업이 선호하는 서식이나 슬라이드 구조는 무시하기 일쑤였죠. 앤트로픽의 스킬 시스템은 이런 절차적 지식을 ‘점진적 정보 공개’ 방식으로 처리합니다. 평소에는 수십 개의 토큰만 써서 요약본만 들고 있다가, 실제 작업이 시작될 때만 세부 정보를 로드해 메모리 과부하를 막습니다. 아틀라시안, 피그마, 스트라이프 같은 거물들이 이미 이 생태계에 올라탔습니다. 에이전트가 도구를 쓰는 방식을 표준화하겠다는 야심입니다.
미라 무라티의 ‘팅커’, 기업용 AI의 종착역은 미세조정
오픈AI의 기술 수장이었던 미라 무라티가 설립한 싱킹머신즈랩(TML)의 첫 제품 ‘팅커(Tinker)’는 기업용 AI의 민낯을 보여줍니다. 아무리 범용 모델이 똑똑해져도, 우리 회사의 데이터와 워크플로우를 완벽히 이해시키려면 미세조정(Fine-tuning)이라는 험난한 과정을 거쳐야 합니다.
팅커는 이 복잡한 과정을 ‘파이썬 루프’ 하나로 축약했습니다. 개발자가 로컬 CPU 환경에서 가벼운 코드를 짜면, 백엔드에서 수천 개의 GPU 클러스터로 자동 매핑해 학습을 진행합니다. LoRA(Low-Rank Adaptation) 방식을 전면 채택해 메모리 사용량을 획기적으로 줄이면서도, 1조 개 파라미터 규모의 거대 모델까지 주무를 수 있게 만들었습니다.
주목해야 할 지점은 비전-언어 모델(VLM)의 미세조정입니다. TML의 실험에 따르면, 큐원3-VL 모델을 단 1장의 학습 데이터만으로 미세조정했을 때 전통적인 비전 모델보다 높은 이미지 분류 성능을 보였습니다. 텍스트로 쌓은 언어 지식이 이미지 이해의 ‘치트키’ 역할을 한 것이죠. 이제 기업들은 단순히 텍스트 챗봇을 만드는 게 아니라, 사내 스크린샷이나 다이어그램까지 이해하는 ‘눈 달린 에이전트’를 직접 조립할 수 있습니다.
유튜브와 미스트랄이 증명한 ‘엔지니어링의 승리’
기술적 화려함보다 중요한 건 비용과 속도입니다. 구글의 정종현 엔지니어가 설계한 유튜브의 콘텐츠 분류 파이프라인은 실무자가 지향해야 할 북극성을 보여줍니다.
유튜브는 하루 수백만 건의 영상이 쏟아지는 전쟁터입니다. 여기서 LLM을 활용해 기존보다 탐지 속도를 100배 이상 단축했다는 데이터는 경이롭습니다. 비결은 ‘엔드투엔드 자동화’와 ‘C++ 기반의 검증 로직’ 결합에 있습니다. 모든 것을 LLM에 맡기는 무식한 방식 대신, 실시간 이상 탐지 시스템이 위험 신호를 감지하면 그때만 자동 프롬프트 최적화(APO)를 적용해 정밀 분류에 들어갑니다. 실질적 효율성이 지능보다 무서운 이유입니다.
미스트랄 AI가 내놓은 ‘OCR 3’ 모델 역시 결이 같습니다. 1,000페이지당 1달러라는 파괴적인 가격을 들고 나왔습니다. 기존 OCR 솔루션들이 단순히 글자를 읽는 데 급급했다면, OCR 3는 복잡한 표 구조를 HTML로 복원하고 각 요소의 좌표까지 정확히 뽑아냅니다. 에이전트가 데이터를 읽고 다음 행동을 결정하기 위한 ‘고품질 먹이’를 가장 저렴하게 공급하겠다는 전략입니다. 에이전트의 성능은 모델의 지능뿐만 아니라, 그 모델이 먹고사는 데이터 파이프라인의 효율성에서 결정됩니다.
장밋빛 미래 뒤에 숨은 세 가지 독배: 보안, 비용, 윤리
이 모든 진화가 공짜는 아닙니다. 에이전트가 업무 깊숙한 곳까지 침투할수록 감당해야 할 리스크도 기하급수적으로 늘어납니다.
첫째는 보안의 임계점입니다. AI가 API를 직접 호출하고 데이터를 전송하는 환경은 해커들에게 무주공산이나 다름없습니다. AI 에이전트 전용 보안 플랫폼이 필수가 되는 시대가 오고 있습니다.
둘째는 인프라와 지역 사회의 갈등입니다. 오픈AI와 오라클이 미시간주에 지으려는 데이터센터를 두고 지역 주민들이 반발하는 사례를 보십시오. 1.4GW라는 막대한 전력 소모는 지능의 대가치고는 가혹합니다. 일론 머스크의 xAI가 화성에 데이터센터를 짓겠다는 소리를 하는 이유도 지구상의 자원 한계가 발목을 잡을 것이라는 계산 때문입니다.
셋째는 통제 불가능한 동조 현상입니다. AI가 사용자의 감정과 톤을 그대로 따라가는 ‘과도한 동조(Sycophancy)’ 문제는 여전히 해결되지 않았습니다. 에이전트가 사용자의 위험한 의도를 눈치채지 못하고 오히려 부추겼던 비극적인 사례는 기술 지침만으로는 막을 수 없는 영역이 존재함을 보여줍니다. 현장의 현실적 과제를 직시해야 할 때입니다.
실무자를 위한 조언: ‘바이브 코딩’을 넘어 ‘에이전트 아키텍처’로
AWS 게임데이에서 우승한 팀들의 비결은 “바이브 코딩(Vibe Coding)에 익숙한 문화”였습니다. 단순히 기분에 맞춰 코딩하는 게 아닙니다. AI 도구의 특성을 정확히 파악하고, 전체적인 흐름(Vibe)을 설계한 뒤 세부 구현은 AI에게 맡기는 고차원적인 협업 방식입니다.
지금 당장 실행해야 할 세 가지입니다.
1. PoC 단계에서 ‘멀티 모델’ 전략을 채택하십시오. 인프라는 아마존 Q, 멀티모달은 제미나이, 코딩은 클로드입니다. 하나의 모델에 목매는 건 위험합니다.
2. 커스텀 MCP(Model Context Protocol)를 구축하십시오. 우리 회사만의 전문 지식을 AI가 이해할 수 있는 규격으로 정리하는 작업이 모델 업그레이드보다 훨씬 중요합니다.
3. ‘실행 로그’를 자산화하십시오. 에이전트가 어떤 도구를 써서 어떤 결과를 냈는지에 대한 로그는 향후 미세조정을 위한 최고의 데이터셋이 됩니다.
1년 뒤 책상 풍경을 상상해 보십시오. 메일을 읽고 일정을 잡는 건 더 이상 뉴스거리도 안 될 겁니다. 대신 여러분이 설계한 에이전트가 수천 장의 계약서를 긁어모아 이상 징후를 보고하고, 로컬에서 돌아가는 펑션젬마가 사내 보안 규정에 맞춰 실시간으로 트래픽을 차단하고 있을 겁니다.
변화의 파도에서 살아남는 유일한 방법은 AI를 똑똑한 비서로 대우하는 게 아닙니다. AI를 ‘우리가 가르치고 통제해야 할 신입 사원’으로 보고, 그들이 일할 수 있는 완벽한 시스템(Pipeline)을 구축해 주는 것입니다. 기술은 이미 준비되었습니다. 이제 남은 건 설계 능력뿐입니다.
혹시 AI 도입 비용과 성능 사이에서 길을 잃으셨나요?
화려한 데모 영상이 약속하지 않는 냉혹한 현실과 실질적인 해법이 궁금하다면 아래 글들이 명쾌한 힌트가 될 겁니다.
- LLM 투자의 함정: ‘포스트-트랜스포머’ 시대, AI 모델의 진짜 한계와 미래 – ‘똑똑한 앵무새’에 투자하는 실수를 막고 자본 효율성을 극대화하는 전략.
- AI 에이전트: 챗봇 넘어 생산성 혁신! 코딩/업무 자동화 실사용 후기 – 마케팅 용어에 속지 않고 실제 업무 자동화의 임계점을 파악하는 실전 기준.
- 2025년 진짜 AI 기술 4가지 | ‘빠른 앵무새’의 시대는 끝났습니다 – 소음 가득한 시장에서 비즈니스 판도를 바꿀 진짜 기술을 선별하는 안목.







