T STORY

5190억 파라미터에 담은
대한민국 AI의 미래

2026.02.20

5,190억 개의 파라미터. 숫자만 들으면 막연하게 느껴지지만, 이 거대한 숫자 속에는 대한민국 AI 주권을 향한 도전이 담겨 있습니다. 2026년 초, SK텔레콤이 국가대표 독자 파운데이션 모델 프로젝트 1차 평가에서 통과했습니다.

그 중심에 있던 SKT Omnimodal Foundation Model(이하 OFM)팀의 이유진, 천성준, 양현호 님을 만나 ‘국가대표 AI’를 만든다는 것의 의미와 그 여정에 대해 들어보았습니다.

회의 공간에서 함께 서 있는 이유진 님, 양현호 님, 천성준 님의 단체 사진과 업무 소개. 이유진 님은 홍보 PM, 양현호 님은 Pre-training, 천성준 님은 테크니컬 PM(TPM)을 맡았다.

좌측부터 Omnimodal Foundation Model 팀 이유진, 양현호, 천성준 님.

💡 독자 파운데이션 모델 프로젝트란?

과학기술정보통신부가 주관하는 국가 AI 인프라 확보 사업으로, 글로벌 파급력 있는 국내 독자 AI 파운데이션 모델 개발을 목표로 합니다.

SKT 컨소시엄은 크래프톤, 포티투닷(42dot), 리벨리온, 라이너, 셀렉트스타, 서울대학교, KAIST 등 8개 기관이 참여해 ‘A.X K1’ 모델을 개발, 1차 평가에서 NIA 벤치마크 공동 1위를 달성하며 2단계에 진출했습니다.

📐 압도적 규모, ‘사회 간접 자본’이라는 담대한 비전

Q. 정부의 GPU 지원 사업에 참여하지 못했음에도, 5,190억 파라미터라는 초거대 모델을 자체적으로 개발한 이유가 궁금합니다. 상당한 규모의 투자가 필요한 결정이었을 텐데요.

천성준

맞습니다. GPU 지원을 받지 못하는 상황에서, 다른 컨소시엄이 지원받는 만큼 회사 차원에서 투자하기로 한 것이 가장 큰 결정이었습니다. 그만큼 이 프로젝트가 갖는 의미가 크다고 판단했기 때문입니다.

저희는 이 모델이 당장의 수익 창출 수단을 넘어, 대한민국 AI 생태계 전반에 기여하는 ‘사회 간접 자본(SOC)’이 되기를 바랐습니다. 도로를 깔면 그 위로 다양한 자동차가 다니며 새로운 가치를 만들 듯, 우리 AI 모델이 여러 기업과 개발자들이 혁신을 펼칠 수 있는 튼튼한 기반이 되길 원했죠. SKT가 AI 컴퍼니로 나아가는 데 있어 매우 중요한 결정이었습니다.

파란 배경 앞에서 팔짱을 낀 채 서 있는 천성준 님. 파란 계열 셔츠와 안경을 착용하고 미소 짓고 있다.

“모델이 클수록 희귀하고 어려운 지식을 더 잘 학습하고, ‘환각 현상(Hallucination)’도 줄어듭니다. 이 거대 모델은 그 자체로도 의미 있지만, 앞으로 더 작은 특화 모델들을 효율적으로 만들어낼 수 있는 ‘사회 간접 자본’이 될 것입니다.”

천성준 님

Q. 최근에는 모델이 작아도 효율적이면 된다는 흐름도 있는데, 굳이 5,190억이라는 규모를 선택한 이유는 무엇인가요?

양현호

‘스케일링 법칙(Scaling Law)*’에 기반해 계산했습니다. 한정된 예산, 시간, 그리고 경쟁자들과 비슷한 수준의 컴퓨팅 자원 내에서 가장 효율적인 모델을 계산했을 때, 519B 전체 파라미터에 활성 파라미터 33B를 쓰는 구조가 최적이라는 결론이 나왔습니다.

기본이 잘 된 범용 모델이 나중에 특정 분야에 특화될 때도 더 뛰어난 성능을 발휘할 것이라는 믿음도 있었죠. 가장 범용적인 모델을 만드는 것, 그것이 저희의 차별점입니다.

* 스케일링 법칙(Scaling Law): 모델 파라미터 수, 학습 데이터 양, 컴퓨팅 자원 간의 관계에 따라 AI 모델 성능이 예측 가능하게 향상된다는 경험 법칙

⚙️ MoE와 Think Fusion, 효율과 성능을 잡다

Q. MoE(Mixture of Experts·전문가 혼합) 구조와 Think-Fusion 기술에 대해 설명해 주세요.

양현호

MoE는 ‘전문가 혼합’ 모델로, 거대한 AI 모델 전체를 한 번에 사용하는 것이 아니라, 주어진 질문에 가장 적합한 일부 전문가(Expert) 네트워크만 선택적으로 활성화하는 방식입니다. 이를 통해 5,190억이라는 거대한 파라미터 규모에도 불구하고, 실제 연산량은 330억 파라미터 모델과 비슷하게 유지하여 비용 효율성을 극대화할 수 있는 거죠.

엔지니어링적으로는 까다롭지만, 활성 파라미터만 사용하면서도 519B 규모의 지식을 담을 수 있어 효율성이 매우 좋습니다.

테이블에 앉아 손을 움직이며 설명하는 양현호 님. 검은 셔츠를 입고 진지한 표정으로 대화를 이어가고 있다.

천성준

Think Fusion은 별도의 구조라기보다는, 옵션 선택에 따라 ‘Thinking Trace(사고 과정)’가 포함된 답변을 하거나, 사고 과정 없이 답변만 하도록 켜고 끌 수 있는 모델입니다.

MoE 모델은 한 번에 여러 요청을 처리해야 효율적인데, 두 가지 모델을 따로 띄울 필요 없이 하나만 띄워놓고 요청에 따라 기능을 선택할 수 있게 만든 겁니다.

만약 ‘생각하는 모델’과 ‘일반 모델’이 따로 있다면 두 개의 거대 모델을 띄워야 하거나, 요청 종류에 따라 모델을 갈아끼워야 하는 비효율이 발생하죠.

회의실 테이블에 나란히 앉아 있는 양현호 님과 천성준 님의 모습. 천성준 님이 손을 펼쳐 보이며 설명하고 있고, 양현호 님이 옆에서 경청하고 있다.

이유진

쉽게 말해 모델이 ‘1인 2역’을 하는 거예요. 영화배우가 한 작품에서 두 배역을 연기하듯, AI 모델이 필요에 따라 역할을 바꿔가며 작동하는 거죠.

양현호

인프라 자원이 한정적일 때, 두 모델을 각각 띄우는 것보다 하나로 통합해 유휴 자원을 없애고 전력 효율을 높이는 방식입니다. GPU 같은 자원을 최대한 효율적으로 쓰기 위해 채택한 아키텍처죠.

🇰🇷 한국어, 제대로 하고 싶었다

Q. 한국어 특화와 관련해서는 어떤 차별점이 있나요?

양현호

글로벌 기업보다 훨씬 높은 비중인 약 30%의 한국어 데이터를 투입했어요. 그리고 한국어 중에서도 맥락이 많이 필요한 문장을 골라내는 별도의 처리기를 만들었습니다. 맥락이 풍부한 문장을 많이 학습해야 문맥을 짚는 능력이 좋아지거든요.

천성준

토크나이저(Tokenizer)*의 한국어 효율성이 굉장히 높아요. 같은 문장이라도 더 적은 토큰으로 표현할 수 있어서 속도와 전력 효율 면에서 글로벌 모델 대비 경쟁력이 있습니다. 실제로 한국어 수학과 코딩 분야에서는 내부적으로 높은 성능을 보이고 있다고 판단하고 있어요.

* 토크나이저(Tokenizer): 텍스트를 AI 모델이 처리할 수 있는 최소 단위(토큰)로 분할하는 전처리 도구. 효율성에 따라 같은 문장도 더 적은 토큰으로 표현 가능하다.

파란 배경 앞에서 팔짱을 낀 이유진 님. 분홍색 가디건을 입고 정면을 바라보고 있다.

“2018년부터 LLM을 개발하고, A.(에이닷) 등 다양한 서비스를 운영하며 축적해 온 양질의 한국어 데이터와 노하우가 있었기에 가능했습니다. 단순한 데이터의 양이 아닌, 품질과 경험의 차이가 핵심입니다.”

이유진 님

🔥 ‘추석’이 살렸다? ‘원팀’으로 넘은 위기

Q. 촉박한 일정 속에서 수많은 기술적 난제를 해결해야 했을 텐데, 가장 큰 어려움은 무엇이었나요? 어떻게 극복했나요?

양현호

학습 프레임워크를 잡는 게 가장 어려웠습니다. MoE 모델을 ‘프롬스크래치(From Scratch)’로 학습하는 사례가 드물어 버그가 많았고, 이를 잡는 과정이 정말 힘들었어요. 저희는 농담 삼아 “추석이 살렸다”고 말하는데, 추석 연휴를 반납하고 집중적으로 일해서 해결했습니다.

회의 테이블에 함께 앉아 있는 양현호 님, 천성준 님, 이유진 님. 양현호 님이 말하는 동안 천성준 님과 이유진 님이 경청하고 있다.

이유진

성능 평가 단계에서 하나를 개선하면 다른 쪽 성능이 떨어지는 부작용을 잡는 과정이 시간 싸움이었어요.

천성준

학습 코드에 버그가 있어서 성능이 안 나올 때, 이미 큰 투자가 들어간 상태라 마음이 급해졌어요. 동료들과 비상 근무를 하며 해결했죠. 또 TPM으로서 각자 다른 배경을 가진 회사와 연구실들을 하나의 목표로 설득하고 조율하는 소통 과정이 꽤 어려웠습니다.

Q. 각자 다른 분야의 전문가인만큼, 중요하게 생각하는 가치나 기술도 달랐을 것 같아요. 말씀대로 조율이 상당히 힘들었을 것 같은데, 컨소시엄 내부 협업은 어떻게 진행되었나요?

테이블에 앉아 두 손을 모으고 진지한 얼굴로 설명하는 천성준 님.

천성준

크래프톤이 성수에 오프라인 협업 공간을 제공해 준 것이 컸습니다. 출입증을 만들어주셔서 컨소시엄 참여자들이 모여서 협업할 수 있었죠. PC와 회의 공간도 마련해주셔서 굉장히 유용하게 활용했습니다.

인턴 분들은 몇 달 동안 거기에 상주하기도 했어요. 크래프톤과 함께 개발한 Think Fusion 기술도 이 공간에서 나온 성과죠. 컨소시엄에 참여한 학생 분들이, “보통 산학 과제는 회사가 관심 없고 결과물만 달라고 하는데, 여기서는 목표를 함께 논의하고 발전시켜 나간다는 느낌을 받았다”는 말씀을 주셔서 굉장히 보람을 느꼈습니다.

⚖️ 공정함과 안전성, 타협할 수 없는 원칙

Q. 힘든 와중에도 끝까지 지키려고 했던 원칙이 있다면요?

이유진

‘벤치마크 오염(Contamination)*’을 시키지 않겠다는 원칙이에요. AI 모델의 성능을 객관적으로 평가하기 위해서는 평가 데이터(벤치마크)가 학습 과정에서 노출되지 않아야 합니다. 벤치마크 문제의 답을 학습 데이터에 넣으면 점수는 쉽게 오르지만, 모델의 진짜 실력인 ‘일반화 능력*’을 위해 절대 넣지 않았습니다.

* 벤치마크 오염(Benchmark Contamination): 평가용 벤치마크 데이터가 학습 데이터에 포함되어, 모델이 실제 일반화 능력이 아닌 암기력으로 높은 점수를 받게 되는 문제

* 일반화 능력(Generalization): AI 모델이 학습에 사용되지 않은 새로운 데이터에 대해서도 정확한 예측을 수행할 수 있는 능력

천성준

벤치마크는 수능 문제 풀이와 비슷합니다. 업계에서는 벤치마크 문제집이 공유되는데, 이걸 학습 데이터에 넣으면 점수는 쉽게 오르지만 모델의 본질을 평가할 수 없게 돼요. 저희는 답지를 보지 않고 공정하게 경쟁하자는 원칙을 끝까지 지켰습니다.

회의 중 미소를 짓는 천성준 님과 이유진 님. 두 사람이 테이블에 나란히 앉아 밝은 분위기로 대화하고 있다.

또한, AI가 사회에 미칠 영향을 고려해 유해성, 편향성 등을 최소화하는 ‘안전성’ 확보에도 많은 노력을 기울였습니다. 폭탄 제조법과 같이 사람에게 해를 끼칠 수 있는 질문에는 답변을 거부하도록 안전성 데이터를 학습에 포함시켰습니다.

정직하고 올바른 방법으로 최고의 기술력을 증명하고 싶었고, 이러한 원칙을 지켰기에 더 큰 자부심을 느낍니다.

양현호

저희는 실사용을 염두에 두고 있었어요. 나중에 A.(에이닷) 서비스나 그룹사로 확산될 예정이라서, 수학 문제만 잘 푸는 모델이 아니라 사람들에게 친절하게 응답하고 실생활에 도움이 되는 AI를 만들고 싶었습니다.

🚀 최초를 넘어 최고를 향한 여정

Q. 이번 프로젝트의 가장 큰 성과나 배움이 있었다면요?

천성준

국내 AI 생태계가 성숙해지는 과정이라고 느꼈습니다. 기술력을 증명하기 위해 투명하게 공개하는 것이 중요하다는 걸 깨달았어요. 정부와 5개 정예팀이 생태계 발전을 위해 노력하고 있음을 느꼈고, 이 과정에서 저희도 성장했습니다.

이유진

SK텔레콤이 통신사를 넘어 AI 선도 회사로 인정을 받은 점이 가장 큰 성과예요. ‘국가대표 AI 4강’이라는 타이틀 하나만으로 많은 것이 설명됩니다. 팀원 모두에게 큰 동기부여가 되었어요.

파란 배경 앞에서 웃으며 서 있는 양현호 님. 검은 셔츠를 입고 카메라를 바라보고 있다.

넘지 못할 벽이 아니라는 것을 증명했습니다. 중국이나 미국의 모델 성능을 열심히 하면 따라잡을 수 있겠다는 자신감을 얻었어요. 실제로 일부 벤치마크에서는 ‘딥시크(DeepSeek)’보다 좋은 결과가 나오기도 했습니다.”

양현호 님

Q. 2단계 진출을 확정했는데, 앞으로의 계획은 어떻게 되나요?

천성준

1차에서는 한국어와 영어만 지원했지만, 2단계부터는 더욱 다양한 언어를 지원할 예정입니다. 좀 더 ‘확산에 유리한 방향이지 않을까’라는 생각도 갖고 있고, 평가도 다양해질 수 있지 않을까 기대하고 있습니다.

이유진

에이전트(Agent) 능력을 강화하는 방향으로도 진행될 거예요. 멀티모달도 순차적으로 적용할 예정입니다. 이미지부터 시작해서 하반기 이후에는 음성, 영상 데이터도 처리할 수 있도록 고도화할 계획이에요.

양현호

1차 평가를 준비하는 과정에서 겪었던 시행착오들을 다시 발을 헛디디지 않을 겁니다. 내부적인 기술 파이프라인도 고도화되어서 이번에는 저번처럼 바쁘지 않을 것 같습니다.

Q. 마지막으로, A.X K1이 갖는 의미를 한 문장으로 정의한다면요?

실내 공간에서 나란히 선 양현호 님, 천성준 님, 이유진 님. 세 사람이 팔짱을 끼거나 자연스럽게 서서 카메라를 향해 미소 짓고 있다.

좌측부터 양현호, 천성준, 이유진 님

글로벌 AI 시장에 던지는 첫 번째 도전장 입니다.

양현호 님

AI 3대 강국과 ‘모두의 AI’를 달성하기 위한 벽돌 하나죠.

천성준 님

한국도 AI를 잘한다는 것을 세계에 알리고, SK 그룹사 전체의 AI 전환을 가속화하는 강력한 동력이 될 거예요.

이유진 님

🚩 ‘첫 번째 도전장’에서 ‘게임 체인저’로

인터뷰를 마무리하며 세 사람은 한 목소리로 감사 인사를 전했습니다. 먼저 이 과제를 기획하고 아낌없이 지원해주신 과학기술정보통신부, NIPA(정보통신산업진흥원), NIA(한국지능정보사회진흥원), TTA(한국정보통신기술협회) 담당자분들께 감사를 전한다고요.

또 AI 데이터 엔지니어링 팀, 리벨리온과 협업 중인 에이닷사업전략팀, 홍보와 정부 커뮤니케이션을 도맡아주신 분들까지, 이 모든 여정은 SK텔레콤 구성원들의 전사적인 응원과 노력이 있었기에 가능했다고 재차 강조했습니다.

5,190억 개의 파라미터로 시작한 대한민국 AI의 도전. OFM팀은 1차 평가를 성공적으로 마친 뒤, 이미 다음 단계를 준비하고 있습니다. “추석이 살렸다”며 웃는 그들의 얼굴에서 고생의 흔적과 함께 뚜렷한 자신감이 보였습니다.

국가대표 AI가 글로벌 무대에서 어떤 ‘게임 체인저’로 성장해 나갈지, OFM팀의 다음 여정이 기대됩니다.