글
DeepSeek V4 Preview — 오픈 모델 경쟁이 성능 추격에서 가격·맥락 길이·지정학적 자립성의 복합전으로 이동
DeepSeek는 2026년 4월 24일 V4 Preview를 공개했다. V4 Pro는 1.6T total / 49B active parameters, V4 Flash는 284B total / 13B active parameters를 갖고 두 모델 모두 1M token context를 지원하며, Flash는 입력 토큰 100만 개당 0.14달러로 제시됐다. 🔍 왜 주목해야 하나 이 발표의…
배경 및 맥락
2026년 AI 모델 시장은 더 이상 미국 몇 개 frontier lab의 폐쇄형 모델 경쟁만으로 설명되지 않는다. 오픈웨이트 전략, 지역별 반도체 자립, 장문 컨텍스트 처리, agentic coding 적합성, 그리고 실제 API 가격이 동시에 중요한 변수로 올라왔다. 특히 개발자와 플랫폼팀 입장에서는 최고 정확도 모델 하나보다, 어떤 모델이 더 긴 컨텍스트를 더 싼 가격에 안정적으로 처리하는지가 실제 운영 비용을 크게 좌우한다.
DeepSeek는 작년 이후 저비용·고효율 포지셔닝으로 시장을 흔들어 왔고, 이번 V4 Preview는 그 전략을 한 단계 더 밀어붙인 사례다. 절대 성능에서 미국 frontier 모델을 완전히 넘어서지 못하더라도, 충분히 근접한 성능과 매우 긴 context window, 공격적인 가격 정책을 결합하면 다른 차원의 경쟁 압력을 만들 수 있다는 점을 보여준다.
핵심 내용
4월 24일 공개된 DeepSeek V4 Preview는 Pro와 Flash 두 버전으로 나뉜다. TechCrunch와 Reuters 보도 기준으로 V4 Pro는 1.6 trillion total parameters와 49 billion active parameters를, V4 Flash는 284 billion total parameters와 13 billion active parameters를 사용한다. 두 모델 모두 1 million token context window를 제공하며, DeepSeek는 agentic coding과 reasoning 성능 향상을 강조했다.
가격 정책도 눈에 띈다. TechCrunch 보도에 따르면 V4 Flash는 입력 토큰 100만 개당 0.14달러, 출력 토큰 100만 개당 0.28달러 수준이며, V4 Pro 역시 여러 frontier closed model보다 낮은 가격대로 제시됐다. Reuters는 DeepSeek가 이 모델을 Huawei 칩 적응성과 함께 언급했다고 전했는데, 이는 단순 모델 출시가 아니라 중국 내 독자적 AI 공급망 구축 서사의 일부로 읽힌다.
경쟁 구도 / 비교
OpenAI, Google, Anthropic의 최신 모델은 여전히 전반적 frontier capability에서 우위가 있지만, 비용과 개방성 측면에서는 약점이 있다. DeepSeek V4는 바로 그 틈을 노린다. 최고 지식 테스트에서 일부 뒤처지더라도, 초장문 컨텍스트와 낮은 가격, 오픈웨이트 배포는 실제 개발 워크로드에서 매우 다른 경제성을 제공할 수 있다.
이 경쟁은 단순히 중국 대 미국 구도로만 보기 어렵다. 더 중요한 것은 model quality frontier와 deployment frontier가 분리되고 있다는 점이다. 최고 성능 모델이 항상 최적의 제품 선택은 아니며, 긴 컨텍스트와 저가 추론이 필요한 use case에서는 오픈 모델이 더 매력적인 기본값이 될 수 있다.
의미
이번 발표의 의미는 open model 진영이 이제 단순 대안재가 아니라, 가격 기준과 제품 설계 기준을 다시 정의하는 압력 요인으로 자리잡고 있다는 점이다. 특히 코드베이스 분석, 문서 통합, 검색 보강, 장기 에이전트 실행처럼 context와 비용이 중요한 작업에서는 frontier leaderboard보다 total cost of execution이 더 중요해질 수 있다.
실무적으로는 플랫폼팀이 workload segmentation을 더 정교하게 해야 한다. 가장 어려운 의사결정 작업은 frontier closed model에 맡기고, 장문 처리나 고빈도 자동화는 ultra-long-context open model로 분리하는 하이브리드 전략이 점점 더 현실적이 된다. DeepSeek V4는 그 분업 설계를 촉진하는 대표 사례다.