Feature Article
Hugging Face State of Open Source Spring 2026 — 오픈 모델 경쟁의 무게중심이 미국 중심에서 다극·주권형 생태계로 이동
배경 및 맥락
오픈소스 AI를 둘러싼 논의는 한동안 "폐쇄형 frontier model을 따라잡을 수 있는가"에 집중돼 있었다. 하지만 2025년 이후 시장은 다른 질문으로 이동했다. 실제로 누가 배포하고 있는가, 누가 파생 모델을 만들고 있는가, 어느 지역이 다운로드와 생태계 확장을 주도하는가, 그리고 어떤 규모의 모델이 현실적인 비용 구조 안에서 운영되는가가 더 중요한 지표가 됐다.
Hugging Face의 Spring 2026 리포트는 이 변화를 정량적으로 보여준다. 플랫폼은 2025년에 1,300만 사용자, 200만 개 이상의 공개 모델, 50만 개 이상의 공개 데이터셋으로 성장했다. 동시에 상위 200개 모델이 전체 다운로드의 49.6%를 차지할 만큼 집중도는 높지만, 그 아래에서는 파생 모델, adapters, quantization, 지역 특화 배포가 빠르게 확산되고 있다. 즉, 오픈 생태계는 하나의 시장이 아니라 여러 하위 생태계가 겹쳐진 구조로 진화하고 있다.
핵심 내용
리포트의 가장 중요한 메시지는 세 가지다. 첫째, 지리적 무게중심 이동이다. Hugging Face 데이터에 따르면 중국 모델은 전체 다운로드의 41%를 차지하며 미국을 넘어섰고, 2025년 트렌딩 모델 다수도 중국에서 개발되거나 중국 모델의 파생물이었다. Baidu는 2024년 Hub 릴리스가 거의 없었지만 2025년에는 100개 이상을 올렸고, ByteDance와 Tencent도 릴리스 수를 8~9배 늘렸다.
둘째, 파생 생태계의 폭발적 성장이다. Alibaba 조직 단위로만 보면 Google과 Meta를 합친 것보다 더 많은 derivative model을 보유하며, Qwen family는 11.3만 개 이상의 파생 모델을 형성했다. Qwen 태그 전체를 포함하면 20만 개를 넘는다. 이는 모델 품질 자체보다 downstream adaptation 친화성이 더 큰 경쟁력으로 작동하고 있다는 뜻이다.
셋째, 채택의 중심이 대형 모델이 아니라 deployable small model 쪽으로 이동하고 있다는 점이다. 리포트는 1~9B 구간의 상위 모델이 100B 초과 모델보다 더 높은 다운로드와 배포 빈도를 보인다고 설명한다. 평균 다운로드 모델 크기는 커졌지만 median은 거의 변하지 않았고, 이는 소형 모델 수요가 안정적으로 유지되는 가운데 일부 대형 모델이 평균만 끌어올리고 있다는 신호다. 비용, latency, hardware availability가 실사용을 결정하는 현실이 그대로 반영된 결과다.
경쟁 구도 / 비교
이 데이터는 OpenAI, Anthropic, Google 같은 폐쇄형 frontier lab 중심 구도가 시장 전체를 설명하지 못한다는 점을 분명히 한다. 오픈 생태계에서는 "누가 최고 성능인가"보다 "누가 가장 많이 재사용되고 지역별로 적응되며, 어떤 하드웨어 위에서 실행 가능한가"가 더 중요해진다. 주권 AI 관점에서도 open-weight는 법적 통제, 로컬 데이터 파인튜닝, 국내 인프라 실행이라는 장점을 제공한다.
또한 미국 대형 빅테크 주도의 모델 공급과 중국 오픈 모델의 확산은 경쟁 축이 다르다. 전자는 frontier capability를 밀고, 후자는 빠른 릴리스와 파생 생태계 확장을 통해 distribution advantage를 확보한다. 이 격차는 앞으로도 benchmark leaderboard보다 ecosystem velocity에서 더 크게 벌어질 가능성이 있다.
의미
이 리포트는 오픈소스 AI가 이제 기술 철학이 아니라 산업 구조라는 점을 보여준다. 국가 차원에서는 sovereignty와 규제 대응의 기반이 되고, 기업 차원에서는 vendor lock-in을 줄이는 실행 옵션이 되며, 개발자 생태계 차원에서는 fine-tune과 deployment economics가 innovation을 주도한다.
실무적으로는 모델 선정 기준을 다시 써야 한다. 우리 조직이 필요한 것은 최고 점수 모델이 아니라, 내부 인프라에서 돌릴 수 있고 파생 생태계가 풍부하며 업데이트 주기가 빠른 모델일 수 있다. 오픈 모델 전략은 보조 옵션이 아니라, 비용·주권·배포 속도를 동시에 관리하기 위한 핵심 포트폴리오가 되고 있다.