중국 빅테크 알리바바가 자사의 대표 인공지능(AI) 언어모델 시리즈의 후속작 ‘큐원 3(Qwen 3)’을 공개하며 글로벌 오픈소스 대형언어모델(LLM) 경쟁에 다시 합류했다. 이번 발표는 급진적 혁신보다는 기존 흐름을 수용하고 효율과 범용성을 강화하는 데 초점을 맞춘 구성으로, 기술 실험보다 실용성에 방점을 찍은 전략으로 평가된다.
![]() [코리안투데이] 알리바바의 큐원3(사진출처=알리바바) © 변아롱 기자 |
알리바바는 28일(현지시간) 큐원 3 전체 라인업을 발표하며, 최소 6억 개부터 최대 2350억 개까지 다양한 매개변수 스펙을 공개했다. 특히 ‘큐원3-235B-A22B’와 ‘큐원3-30B-A3B’ 두 모델에는 전문가 혼합(MoE, Mixture of Experts) 아키텍처를 적용해, 연산 효율성을 높였다는 점을 강조했다. 다만 이 두 모델은 벤치마크만 공개되었고, 실제 다운로드는 아직 지원되지 않는다. 대중에게 오픈소스로 제공된 모델은 총 6종(32B, 14B, 8B, 4B, 1.7B, 0.6B)이며, 모두 전통적인 덴스(dense) 모델로 구성돼 있다.
큐원 3의 핵심 강점은 전반적으로 현세대 AI 트렌드를 충실히 반영했다는 점이다. 우선 하이브리드 추론 모드를 도입해 요청의 복잡도에 따라 사고 기반 응답 또는 빠른 처리 중 선택이 가능하며, 모델 컨텍스트 프로토콜(MCP) 지원을 강화해 에이전트 활용성을 확대시켰다. 또한 STEM·수학·코딩·툴콜링 등 실무 지향형 태스크에서 최적화되었으며, 119개 언어 지원, 36조 토큰 규모의 데이터로 학습한다. 특히 “단순 질문에는 빠르게, 복잡한 문제에는 사고 과정이 동원되는” 구조는 최근 앤트로픽 ‘클로드 3.7’이나 xAI의 ‘그록 3’가 채택한 전략과 유사하다.
벤치마크 결과도 주목할 만하다. 큐원3-235B-A22B는 수학(AIME), 추론(BFCL), 알고리즘 평가(Codeforces) 항목에서 오픈AI의 ‘o3-미니’를 능가하는 성능을 보였다. 소형 모델인 큐원3-30B-A3B도 활성 매개변수가 10배 많은 경쟁 모델을 상회하는 등 효율 측면에서 강점을 드러냈다.
큐원3-32B는 공개된 모델 중 최대 규모로, 오픈AI의 ‘o1’보다 코딩 벤치마크 ‘라이브코드벤치(LiveCodeBench)’에서 높은 점수를 기록했다. 전체적으로는 이전 세대인 큐원 2.5 라인업과 유사하거나 상회하는 성능을 보이면서도, 매개변수 크기는 줄인 것으로 나타났다.
이번 큐원 3 발표는 메타의 LLaMA 3, 구글의 제미나이 2.5 프로, 오픈AI의 GPT-4.1 등 강력한 플래그십 모델들이 앞다퉈 출시되고 있는 가운데, 알리바바가 기술 과시보다는 실전 적용과 오픈 생태계 확장이라는 ‘실속 노선’을 선택했다는 신호로 해석된다.
알리바바는 모델 전반을 허깅페이스와 깃허브를 통해 오픈 라이선스로 제공할 계획이며, 자사 클라우드 기반 플랫폼인 ‘모델스코프(ModelScope)’에서도 곧 사용할 수 있게 할 예정이다.
<저작권자 ⓒ 코리안투데이(The Korean Today) 무단전재 및 재배포 금지>