한국형 AI의 순혈주의 논란과 프롬 스크래치의 실체를 파헤칩니다. 기술 주권과 효율성 사이에서 K-AI가 나아갈 3가지 생존 전략을 지금 확인하세요.
대한민국 AI 산업에 순혈주의 논란이 한창입니다. 과학기술정보통신부가 주도하는 국가대표 AI 선발전에서 베끼기 의혹이 터져 나왔기 때문이죠. 네이버, SK텔레콤, 업스테이지 같은 기업들이 중국의 큐원(Qwen)이나 딥시크(DeepSeek) 모델을 참고했다는 지적이 잇따릅니다. 한국형 LLM이 글로벌 모델에 비해 고전하는 진짜 이유가 기술적 자립도에 있다는 의구심도 커지고 있습니다. 소버린 AI(Sovereign AI)의 실체에 의문이 제기되는 시점입니다. 이번 논란은 기술적 시비를 넘어 프롬 스크래치(From Scratch)에 대한 오해와 시장의 과도한 기대가 충돌한 결과로 보입니다.
프롬 스크래치(From Scratch): 순혈주의에 갇힌 K-AI의 딜레마
프롬 스크래치는 백지상태에서 독자적인 모델을 개발하는 방식을 뜻합니다. 정부가 제시한 자격 요건도 자체 아키텍처 설계와 직접 수행한 사전 학습에 방점이 찍혀 있습니다. 현장의 목소리는 조금 다릅니다.
백지에서 모델을 그린다는 것의 실체
프롬 스크래치 방식의 AI 개발은 크게 네 단계로 나뉩니다. 수조 개의 토큰으로 구성된 방대한 데이터를 수집하고 정제합니다. 모델의 뼈대인 아키텍처를 설계하죠. 수천 대의 GPU를 동원해 수개월간 사전 학습(Pre-training)을 진행하며 모델의 가중치(Weight)를 형성합니다. 특정 목적에 맞게 미세 조정(Fine-tuning)을 거칩니다.
기존 오픈소스 모델의 가중치를 가져다 쓰는 파인튜닝이나 모델 병합(Merging)과는 궤를 달리합니다. 처음부터 끝까지 개발사가 데이터의 흐름과 모델의 판단 로직을 완전히 통제할 수 있다는 점이 핵심입니다. 현대 AI는 수만 개의 논문과 오픈소스 코드가 얽힌 거대한 생태계입니다. 완전히 새로운 수학적 구조를 창조하는 것은 사실상 불가능에 가깝다는 게 전문가들의 중론입니다.
기술 주권이라는 명분과 실리
우리가 이토록 프롬 스크래치에 집착하는 이유는 명확합니다. 기술 주권 때문이죠. 남의 모델을 빌려 쓰면 핵심 알고리즘에 대한 통제권이 없습니다. 원저작권자가 라이선스 조건을 변경하거나 공급을 중단하면 그 위에 쌓아 올린 모든 서비스가 모래성처럼 무너질 수 있습니다. 공공이나 국방 분야에 도입될 AI라면 모델 내부에 어떤 편향성이나 백도어가 숨겨져 있는지 완벽히 파악해야 합니다. 잘 작동하는 AI보다 책임질 수 있는 AI가 중요하다는 현장의 목소리는 프롬 스크래치가 단순한 자존심 싸움이 아닌 생존의 문제임을 보여줍니다.
효율과 독창성 사이의 아슬아슬한 줄타기
논란의 중심에는 한국을 대표하는 AI 기업들이 서 있습니다. 네이버클라우드는 시각 정보를 처리하는 비전 인코더에 알리바바의 큐원(Qwen) 모델을 채택했습니다. SK텔레콤은 딥시크(DeepSeek)의 어텐션 메커니즘인 MLA를 참고했다는 의혹을 받았죠. 업스테이지 역시 중국 지푸 AI의 모델과 레이어 구조가 유사하다는 지적을 피하지 못했습니다. 미국의 AI 액션 플랜이 기술 전쟁을 선포한 상황에서 이러한 의존도는 뼈아픈 대목입니다.
큐원(Qwen)과 딥시크(DeepSeek)의 그림자
네이버의 경우 멀티모달 AI의 핵심인 비전 인코더를 외부에서 가져온 점이 지적받고 있습니다. 네이버 측은 표준화된 고성능 모듈을 활용한 엔지니어링적 판단이라고 해명했지만 개발자 커뮤니티의 반응은 냉담합니다. 비전 인코더는 단순히 이미지를 읽는 도구가 아니라 시각 정보를 의미로 변환하는 두뇌의 일부이기 때문입니다.
SK텔레콤이 참고한 딥시크의 MLA 기술도 마찬가지입니다. 딥시크는 최근 효율성 측면에서 라마(Llama)를 능가한다는 평가를 받는 모델입니다. 이를 참고해 최적화를 진행했다는 것은 기술적으로 영리한 선택일 수 있으나 독자 아키텍처라는 정부의 엄격한 잣대 앞에서는 변명의 여지가 좁아집니다. 해외 커뮤니티에서는 한국 AI가 중국의 효율적인 아키텍처를 빠르게 흡수하고 있지만 독창성 측면에서는 의문이 든다는 냉소적인 반응이 관측되기도 합니다.
“가중치까지 똑같은데 독자 모델인가?”
가장 치명적인 비판은 가중치(Weights)의 유사성에서 나옵니다. 아키텍처가 비슷할 수는 있어도 학습 결과물인 가중치까지 유사하다는 것은 사실상 베끼기가 아니냐는 의심을 사기에 충분합니다. 깃허브(GitHub)의 일부 분석가들은 특정 레이어의 데이터 분포가 오픈소스 모델과 소수점 단위까지 일치한다는 증거를 제시하기도 했습니다. 프롬 스크래치로 학습했다는 주장의 신뢰도를 깎아먹는 결정타가 된 셈입니다. 한국형 AI라는 이름표만 붙인 라벨갈이가 아니냐는 대중의 불신을 자초했습니다.
트랜스포머 아키텍처의 한계: 바퀴를 다시 발명해야 할까?
근본적인 질문을 던져야 합니다. 2026년을 바라보는 지금 모든 것을 처음부터 직접 만드는 것이 최선일까요? 젠슨 황 엔비디아 CEO는 최근 인터뷰에서 미래에는 AI 토큰 생성 비용이 거의 공짜가 될 것이라고 예언했습니다. 컴퓨팅 성능이 10년 뒤 100만 배 향상될 로드맵이 있다면 모델의 기원보다는 활용과 최적화가 더 중요한 가치가 될 수도 있습니다.
현대 LLM은 ‘레고 블록’이다
트랜스포머 아키텍처의 한계를 인정해야 할 때가 왔습니다. 현대 LLM은 이미 표준화된 기술의 집합체입니다. 어텐션 메커니즘, RMSNorm 같은 검증된 레고 블록을 어떻게 조합하느냐의 싸움이죠. AI 스케일링 논쟁에서도 알 수 있듯, 이제는 양보다 질, 그리고 효율적인 구조가 핵심입니다. 완전히 새로운 아키텍처를 설계하는 것은 전 세계 구글이나 오픈AI 연구자들에게도 버거운 일입니다.
프롬 스크래치의 기준을 수학적 구조의 창조로 잡는다면 전 세계에 독자 모델은 단 몇 개도 남지 않을 것입니다. 남의 블록을 가져다 쓰더라도 그 블록이 어떻게 작동하는지 완벽히 이해하고 우리만의 데이터로 새롭게 구워냈느냐(Pre-training) 하는 점이 본질입니다.
모델의 출처가 여전히 중요한 이유
토큰 값이 공짜가 되는 시대가 오더라도 모델의 출처는 여전히 중요합니다. 비용의 문제가 아니라 신뢰와 지속 가능성의 문제입니다. 중국산 모델을 기반으로 만든 AI가 어느 날 갑자기 정치적 이유로 업데이트가 중단되거나 특정 키워드에 대해 검열을 수행한다면 그 피해는 고스란히 국내 사용자에게 돌아갑니다. 모델의 내부 구조를 속속들이 알지 못하면 우리 환경에 맞게 고도화하기 어렵습니다.
2026년 K-AI 생존 전략: 낡은 잣대를 버려라
프롬 스크래치라는 단어가 주는 환상에서 벗어나야 합니다. 100% 순수한 창작물이라는 신화에 매몰되어 기술적 효율성을 포기하는 것은 국가적 낭비입니다. 대신 통제 가능한 독자성이라는 새로운 기준을 세워야 합니다.
진짜 소버린 AI의 조건
진정한 소버린 AI는 모델의 모든 파라미터를 우리가 직접 수정하고 왜 그런 답변이 나왔는지 설명할 수 있을 때 완성됩니다. 오픈소스의 아키텍처를 참고했더라도 학습 데이터의 전 과정을 투명하게 공개하고 라이선스 리스크를 완전히 해소했다면 그것은 독자 모델로서의 가치가 충분합니다. 정부가 이번 논란 이후 중간 체크포인트(Checkpoint) 제출을 의무화하며 검증을 강화하기로 한 것은 다행스러운 조치입니다. 학습의 연속성을 확인하는 것이야말로 입으로만 외치는 프롬 스크래치보다 훨씬 강력한 증거가 되니까요.
지금 당장 실행해야 할 3가지 전략
K-AI가 글로벌 시장에서 살아남기 위해 당장 실행해야 할 제언입니다.
1. 기술 보고서(Technical Report)의 투명성 강화: 어떤 외부 모듈을 왜 썼는지 당당히 밝혀야 합니다. 숨기다 걸리면 베끼기가 되지만 밝히고 증명하면 전략적 선택이 됩니다.
2. 벤치마크를 넘어선 실증 데이터 확보: 단순히 점수가 높은 모델이 아니라 한국의 법률, 의료, 공공 서비스 등 특화된 영역(Vertical AI)에서 압도적인 성능을 보여줘야 합니다. 젠슨 황이 예고한 디지털 생물학이나 로봇 수리 같은 틈새시장이 기회가 될 수 있습니다.
3. 오픈소스 생태계로의 기여: 남의 것을 가져다 쓰기만 하는 무임승차자가 아니라 우리가 만든 최적화 기법을 다시 글로벌 커뮤니티에 환원하는 기여자가 되어야 합니다. 그래야만 기술적 종속에서 벗어나 진정한 파트너로 대우받을 수 있습니다.
프롬 스크래치 논란은 K-AI가 성숙해지기 위해 반드시 거쳐야 할 성장통입니다. 2026년 우리가 마주할 AI는 누가 만들었느냐보다 누가 더 안전하고 유용하게 통제하느냐의 싸움이 될 것입니다. 순혈주의라는 좁은 틀을 깨고 글로벌 표준 위에서 우리만의 색깔을 입히는 영리한 전략이 절실합니다. 지금 당장 우리 모델의 계보가 아닌 설계도를 다시 점검해 보시길 권합니다.
AI의 미래, 기술적 자립만이 정답일까요?
단순한 성능 경쟁을 넘어 AI 생태계의 거대한 흐름을 읽고 싶다면 아래 글들이 명쾌한 힌트가 될 겁니다.
- LLM 투자의 함정: 포스트-트랜스포머 시대 – 현재 AI 모델이 가진 명백한 한계와 곧 닥쳐올 거대한 흐름의 전환점을 확인하세요.
- 트랜스포머 개발자의 경고: AI 시대의 전환점 – 챗GPT의 심장인 트랜스포머 기술에 질렸다는 개발자들의 목소리와 그 대안을 분석합니다.







