5년 내 AGI 달성은 마케팅 수사일까요? 앤드류 응과 얀 르쿤의 날카로운 비판, 그리고 세차장 테스트를 통해 현재 LLM이 가진 물리적 상식의 한계와 실용적인 AI 생존 전략을 해부합니다.
실리콘밸리발 예언들이 매일같이 쏟아집니다. 엔비디아 수장은 5년 안에 기계가 인간의 모든 시험을 통과할 것이라 장담하고, 오픈AI는 2028년이면 전 세계 지적 능력의 중심이 데이터센터로 옮겨갈 것이라며 분위기를 띄웁니다. 미디어를 장식하는 이 화려한 수사들을 보고 있으면 당장 내일이라도 자아를 가진 인공지능이 우리 옆집으로 이사 올 것만 같습니다. 정말 그럴까요?
축배의 소리가 커질수록 냉소적인 시선을 보내는 이들이 있습니다. 딥러닝의 아버지 앤드류 응 교수와 메타의 수석 과학자 얀 르쿤입니다. 이들은 대중이 열광하는 AGI(범용인공지능) 도달 시점을 수십 년 뒤로 툭 밀어버립니다. 왜 이 거장들은 모두가 ‘예’라고 할 때 ‘아니오’를 외치는 걸까요. 화려한 마케팅 안개 속에 가려진 현재 인공지능의 뼈아픈 현주소를 파헤쳐 봤습니다.
조 단위 펀딩을 정당화하는 가장 완벽한 서사
최근 대형언어모델(LLM)이 보여준 퍼포먼스는 경이로움 그 자체였습니다. 인간의 말을 알아듣는 듯한 유려한 문장과 방대한 정보 처리 능력에 우리는 홀린 듯 박수를 보냈죠. 구글 딥마인드는 2030년을, 누군가는 당장 내년이라도 특이점이 올 것이라며 시장의 온도를 한계치까지 끌어올립니다.
이 열광의 이면에는 지독한 자본의 논리가 숨어 있습니다. 현재 AI 산업은 천문학적인 컴퓨팅 파워와 전력을 쏟아부어야 버틸 수 있는 거대한 돈 잔치입니다. 끊임없이 투자를 유치하고 인재를 빨아들이려면 다음 단계의 완벽한 혁신이 코앞에 와 있다는 서사를 끊임없이 주입해야 합니다. 혁신이 20년 뒤의 일이라고 말하는 순간, 조 단위의 펀딩 명분은 모래성처럼 허물어집니다.
지금의 AGI 담론은 과학적 로드맵이라기보다 치밀하게 설계된 세일즈 피치에 가깝습니다. 대중에게 과도한 환상을 심어주는 행위는 위험한 도박이기도 합니다. 약속한 성과가 기대치를 밑도는 순간, 과거 AI 역사에서 반복되었던 혹독한 겨울이 다시 찾아올 수 있기 때문입니다. 맹목적인 환호가 실망으로 바뀌는 건 한순간입니다.

마케팅 용어로 전락한 지능의 본질
앤드류 응 교수의 진단은 서늘합니다. 그는 AGI라는 단어가 이미 정밀한 기술적 의미를 잃고 사람들을 현혹하는 마케팅 용어로 전락했다고 꼬집습니다. 만약 누군가 내년에 AGI를 달성했다고 발표한다면, 그건 기술의 도약이 아니라 AGI의 기준을 바닥까지 낮추는 꼼수를 부렸을 가능성이 큽니다. 벤치마크 테스트 몇 개에서 고득점을 받았다고 해서 그것을 범용 지능이라 부를 수 있을까요?
얀 르쿤 메타 수석 과학자의 생각도 명확합니다. 인간 수준의 지능에 도달하려면 아직 수십 년의 시간이 더 필요하다고 단언합니다. 지금의 AI 모델은 인간이 무의식중에 깨닫는 물리적 상식, 즉 세계 모델을 전혀 이해하지 못하기 때문입니다. 텍스트의 확률적 배열을 기가 막히게 흉내 내는 것과 물리 세계의 인과 법칙을 직관적으로 이해하는 것은 완전히 다른 차원의 문제입니다.

53개 인공지능을 바보로 만든 세차장 테스트
현재 기술이 가진 구조적 결함을 가장 코믹하게 보여주는 사례가 있습니다. 바로 글로벌 커뮤니티를 달군 세차장 테스트입니다. 최신 AI 모델들의 지능 수준을 적나라하게 보여주는 이 실험의 과정을 복기해 보겠습니다.
질문은 단순했습니다. 세차를 하고 싶은데 세차장이 집에서 50m 거리에 있다. 걸어가야 할까, 차를 타고 가야 할까?
상식적인 인간이라면 차를 닦으러 가는데 당연히 차를 가져가야 한다고 답할 겁니다. 결과는 충격적이었습니다. 테스트에 참여한 53개의 최신 모델 중 42개가 환경 보호와 유산소 운동을 위해 50m 거리면 걸어가는 것이 좋다고 아주 진지하게 조언했습니다. 가장 똑똑하다는 플래그십 모델들조차 이 함정에 빠졌습니다. 텍스트 속에 등장한 짧은 거리와 건강이라는 키워드 조합에만 집착한 나머지, 세차라는 물리적 맥락을 완전히 놓친 것입니다.
LLM은 수조 개의 데이터를 학습해 단어 사이의 가중치를 계산합니다. 문법적 구조는 완벽하지만, 그 단어가 현실 세계에서 어떤 물리적 질량을 가지는지는 모릅니다. 아이들은 한두 번만 넘어져도 중력의 무서움을 배우지만, AI는 수십억 번의 시뮬레이션을 돌려도 입체적인 상식을 구축하지 못합니다. 이것이 바로 현재 기술의 명확한 한계입니다.
환상에서 깨어나 실질적 가치를 캐내는 법
비가 오면 우산을 써야 한다는 기초적인 지능도 없는 존재에게 우리는 너무 많은 기대를 걸고 있는지도 모릅니다. 데이터와 컴퓨팅 파워를 무한정 쏟아붓는 방식만으로는 결코 AGI의 문턱을 넘을 수 없습니다. 이제는 인간과 얼마나 비슷하게 대화하는지를 따지는 환상에서 벗어나야 합니다. 대신 이 기술로 어떻게 실제적인 경제적 가치를 만들지에 집중할 때입니다.
거품 섞인 마케팅에 휘둘리지 않고 기술의 틈새에서 확실한 효율을 뽑아내고 싶다면, 다음의 전략적 접근을 제안합니다.
1. 에이전트 워크플로우를 마이크로 단위로 쪼개십시오.
AI에게 포괄적인 지시를 내리면 세차장 테스트처럼 맥락을 이탈할 확률이 높습니다. 기획, 자료 수집, 초안 작성 등 단계를 세밀하게 분리하세요. 프로세스 사이마다 인간의 상식과 논리가 개입해 궤도를 수정하는 파이프라인을 구축해야 결과물의 품질을 보장할 수 있습니다.
2. 환각(Hallucination) 현상을 역발상의 도구로 삼으십시오.
상식이 부족해 내뱉는 엉뚱한 결론이 때로는 강력한 무기가 됩니다. 인간의 굳어진 고정관념을 깨는 크리에이티브의 씨앗이 될 수 있기 때문입니다. 100%의 사실 관계가 필요한 작업이 아니라면, 기획 초기 단계에서 여러 모델의 환각을 의도적으로 유도해 예측 불가능한 영감을 수집해 보길 권합니다.
혁신은 언제나 거품과 함께 밀려옵니다. 하지만 결국 세상을 바꾸는 건 그 거품 속에서 실질적인 쓰임새를 찾아낸 이들의 몫이었습니다. 5년 뒤의 AGI를 막연히 기다리기보다, 오늘 당장 눈앞의 작은 프로세스를 혁신해 보십시오. 지능의 본질은 화려한 예언이 아니라 구체적인 실행에 있습니다.
📚 참고 자료
- Andrew Ng, Letters from The Batch — AI 업계 동향과 AGI에 대한 실용적 관점
- TIME: Yann LeCun on AGI, Open-Source, and AI Risk — AGI 회의론과 LLM 한계에 대한 심층 인터뷰
- Opper: Car Wash Test on 53 AI Models — 53개 AI 모델의 물리적 상식 테스트 결과
- arXiv: Physical Common-Sense of LLMs in 3D Environments — LLM의 물리적 상식 추론 능력 연구 논문
- OpenAI: Planning for AGI and Beyond — OpenAI의 AGI 개발 전략과 로드맵
- Google DeepMind: Taking a Responsible Path to AGI — 딥마인드의 책임 있는 AGI 접근법







