태그
78개의 글이 이 태그 아래에 있습니다.
이동
전체 글 보기NVIDIA는 2026년 4월 28일 vision·audio·video·text를 한 모델에서 처리하는 오픈 multimodal reasoning model Nemotron 3 Nano Omni를 발표했다. 이 모델은 30B-A3B hybrid MoE, 256K context를 기반으로 document intelligence·video/audio understanding…
Qwen 팀은 2026년 4월 Qwen3.6 시리즈를 공개하며 35B-A3B와 27B 모델을 순차 배포했다. 공식 저장소 기준으로 이번 릴리스는 agentic coding, front-end workflow, repository-level reasoning 강화와 함께 conversation history 전반에 thinking context를 유지하는 Thinking…
NVIDIA가 공개한 한국어 합성 페르소나 데이터셋으로, 한국의 공개 통계와 지역·직업·교육 등 사회적 분포를 바탕으로 100만 개 규모의 페르소나 레코드를 구성한 자료다. 한국어 모델 학습과 시뮬레이션에서 한국형 맥락을 반영하는 데 참고할 수 있다. 소버린 AI, 한국어 LLM 학습, 합성 데이터 다양성 확대 관점에서 볼 만하다. 영어권 중심 페르소나 데이터셋으로는 놓치기 쉬운 지역성과…
DeepSeek는 2026년 4월 24일 V4 Preview를 공개했다. V4 Pro는 1.6T total / 49B active parameters, V4 Flash는 284B total / 13B active parameters를 갖고 두 모델 모두 1M token context를 지원하며, Flash는 입력 토큰 100만 개당 0.14달러로 제시됐다. 🔍 왜 주목해야 하나 이 발표의…
Mistral AI는 최근 Mistral 3를 공개하며 675B total / 41B active의 Mistral Large 3와 3B·8B·14B 규모의 Ministral 3 시리즈를 함께 내놨다. 전 모델을 Apache 2.0으로 공개하고, Large 3는 8×A100 또는 8×H100 단일 노드 배포 경로, 소형 모델은 edge·robotics 환경까지 겨냥하며 배포 범위를 넓혔다.…
OpenAI는 2026년 4월 16일 biology, drug discovery, translational medicine 연구용 모델인 GPT-Rosalind를 research preview로 공개했다. 이 모델은 ChatGPT, Codex, API에서 qualified customer 대상으로 제공되며, LABBench2의 11개 과제 중 6개에서 GPT-5.4를 앞섰고, Codex 앱…
OpenAI는 2026년 4월 23일 GPT-5.5를 공개했고, 4월 24일에는 API 제공까지 시작했다. GPT-5.5는 Terminal-Bench 2.0에서 82.7%, SWE-Bench Pro에서 58.6%, GDPval에서 84.9%, OSWorld-Verified에서 78.7%를 기록하며 GPT-5.4 대비 더 높은 성능과 더 낮은 토큰 사용량을 동시에 내세웠다. 🔍 왜 주목해야…
ChatGPT Images 2.0 소식의 핵심을 빠르게 정리하면, AI 모델 흐름에서 다음 변화를 미리 읽게 해주는 이슈입니다. 이 글에서는 사실 관계와 맥락, 그리고 실무자가 바로 참고할 포인트를 뉴스레터 톤으로 전달합니다.
OpenAI는 2026년 4월 22일 PII 탐지·마스킹용 open-weight 모델인 Privacy Filter를 공개했다. 이 모델은 최대 128K 컨텍스트를 지원하는 1.5B 파라미터급 token-classification 모델로, PII-Masking-300k 기준 96% F1과 수정 평가셋 기준 97.43% F1을 제시하며 Apache 2.0 라이선스로 Hugging Face와…
Ollama는 최초의 간편한 llama.cpp 래퍼로 인기를 얻었고, 다른 사람의 엔진에서 벌어들인 VC 자금을 활용하면서 속성을 피하고, 사용자를 오도하고, 클라우드로 전환하는 데 수년을 보냈습니다. 전체 기록과 대안이 더 나은 이유는 다음과 같습니다.
Google은 2026년 4월 15일 Gemini 3.1 Flash TTS를 발표하고 Gemini API, Google AI Studio, Vertex AI, Google Vids에 preview로 배포하기 시작했다. 이 모델은 70개 이상 언어를 지원하고, Artificial Analysis TTS leaderboard에서 Elo 1,211을 기록했으며, natural-language…
Google DeepMind는 2026년 4월 14일 Gemini Robotics-ER 1.6을 공개하고 Gemini API와 Google AI Studio에서 즉시 사용할 수 있게 했다. 새 버전은 spatial reasoning, multi-view success detection, instrument reading을 강화했고, instrument reading 정확도는 agentic…
Meta는 2026년 4월 8일 Meta Superintelligence Labs의 첫 모델인 Muse Spark를 공개했다. 이 모델은 현재 Meta AI 앱과 웹을 구동하며, 향후 WhatsApp·Instagram·Facebook·Messenger·AI glasses로 확장되고, select partners 대상 private preview API도 제공될 예정이다. 🔍 왜 주목해야…
Mistral은 2026년 4월 16일 Mistral Small 4를 발표했다. 이 모델은 119B total parameters, 6B active parameters의 128-expert MoE 구조와 256k context window를 갖고, reasoning·multimodal·agentic coding을 하나로 묶은 Apache 2.0 오픈 모델로 제공된다. 🔍 왜 주목해야…
Anthropic은 신뢰할 수 있고 해석 가능하며 조종 가능한 AI 시스템을 구축하기 위해 노력하는 AI 안전 및 연구 회사입니다.
Hugging Face는 2026년 봄 오픈소스 AI 리포트를 통해 2025년 신규 trending model의 다수가 China에서 개발되었거나 China-origin 모델 파생형이었고, Alibaba의 Qwen 계열은 11만 3천 개 이상의 derivative models를 만들었다고 정리했다. 또 1-9B급 모델의 상위군은 100B+ 모델 대비 median 기준 약 4배 높은…
Apple Silicon용 Gemma 4 26B 기반 MLX 4-bit 모델 카드. 텍스트 중심 로컬 에이전트 작업을 겨냥한 빠른 추론형 변형으로 소개된다.
Google DeepMind는 2026년 4월 2일 Gemma 4를 공개했다. 새 라인업은 E2B, E4B, 26B MoE, 31B Dense 네 가지 크기로 구성되며 Apache 2.0 라이선스로 배포되고, 31B 모델은 Arena 기준 당시 세계 오픈 모델 3위, 26B 모델은 6위라고 밝혔다. 🔍 왜 주목해야 하나 이번 발표의 본질은 Google이 Gemini 같은 폐쇄형 모델과…
Mistral AI는 2026년 4월 초 Mistral 3를 공개했다. 라인업은 14B·8B·3B의 소형 dense 모델과 41B active/675B total parameters의 Mistral Large 3로 구성되며, 전 모델을 Apache 2.0 라이선스로 공개했고 Large 3는 LMArena 기준 오픈 비추론 모델 2위라고 밝혔다. 🔍 왜 주목해야 하나 이 발표는 오픈 모델…
Meta는 2026년 4월 8일 Meta Superintelligence Labs의 첫 모델 Muse Spark를 공개했다. 이 모델은 Meta AI 앱과 meta.ai를 즉시 구동하며, Instant/Thinking 모드, 병렬 subagent 실행, multimodal perception, visual coding, 향후 Instagram·Facebook·Threads 콘텐츠 인용…
Cursor는 2026년 4월 6일 warp decode를 공개하며, Blackwell GPU에서 Mixture-of-Experts(MoE) decode 경로의 병렬화 축을 expert 중심에서 output 중심으로 뒤집어 1.84x throughput 향상과 FP32 기준 1.4x 더 높은 정확도를 얻었다고 밝혔다. 기존 expert-centric 경로의 8단계 중 5단계를 제거하고,…
양자화나 증류 없이 70B 모델을 4GB GPU에서, Llama 3.1 405B를 8GB VRAM에서 실행할 수 있는 추론 최적화 라이브러리. 계층별 모델 분해(layer-wise decomposition)로 필요한 레이어만 메모리에 로드하는 방식. 블록 단위 양자화 압축으로 3배 속도 향상. GitHub 스타 15k+. 🔍 왜 주목해야 하나 대부분의 LLM 최적화는 모델 자체를 줄이는…
Google이 4월 2~3일 Gemma 4를 Apache 2.0 라이선스로 공개했다. Effective 2B·4B·26B MoE·31B Dense 네 가지 크기로 제공되며, 256K 토큰 컨텍스트, 비전·오디오 네이티브 멀티모달, 140개 이상 언어를 지원한다. 🔍 왜 주목해야 하나 Gemma 4는 Gemini 3와 동일한 연구 기반으로 제작됐으면서 상업 제한 없는 Apache 2.0으로…
PrismML이 4월 3일 스텔스에서 등장해 세계 최초 상업적으로 실행 가능한 1-bit LLM 패밀리 Bonsai를 Apache 2.0으로 공개했다. 플래그십인 Bonsai 8B는 1.15GB 메모리에 구동되며, FP16 8B 모델 대비 14배 소형·8배 빠른 속도·5배 낮은 에너지 소비를 달성하면서 추론 품질은 동급 수준을 유지한다. 🔍 왜 주목해야 하나 1-bit LLM은…
Google Research가 공개한 TurboQuant는 LLM의 KV Cache를 3비트로 압축하는 학습 불필요(training-free) 벡터 양자화 알고리즘이다. 메모리 사용량 6배 감소, NVIDIA H100 어텐션 연산 8배 가속을 정확도 손실 없이 달성하며 ICLR 2026에 발표된다. 🔍 왜 주목해야 하나 LLM 서빙의 핵심 병목은 KV Cache 메모리다. 100K+ 토큰…
Google은 2026년 3월 26일 Gemini 3.1 Flash Live를 공개하며 실시간 음성 대화용 모델을 Live API preview로 제공하기 시작했다. Google 발표에 따르면 이 모델은 ComplexFuncBench Audio에서 90.8%, Audio MultiChallenge에서 36.1%를 기록하며 다단계 함수 호출과 장기 오디오 추론 성능을 끌어올렸다. 🔍 왜…
NVIDIA Blackwell Ultra(GB300 NVL72 4시스템, 총 288 GPU)가 MLPerf Inference v6.0에서 DeepSeek-R1 오프라인 처리량 기준 초당 249만 토큰을 기록하며 6개월 전 대비 최대 2.77배 향상된 성능으로 전 카테고리를 석권했다. 이번 벤치마크에 Qwen3-VL-235B, GPT-OSS-120B, 텍스트-투-비디오(WAN-2.2) 등…
Arcee AI가 2026년 4월 1일 Trinity-Large-Thinking을 공개했다. Apache 2.0 오픈웨이트 reasoning 모델로, long-horizon agent와 multi-turn tool calling에 초점을 맞췄고 PinchBench에서 Opus 4.6 바로 아래 2위를 기록했다고 밝혔다. 🔍 왜 주목해야 하나 이 모델의 의미는 단순히 또 하나의 오픈 모델이…
Google DeepMind가 2026년 4월 2일 Gemma 4를 공개했다. E2B, E4B, 26B MoE, 31B Dense 네 가지 크기로 출시됐고, Apache 2.0 라이선스 아래 reasoning, function calling, JSON output, vision/audio 입력까지 지원한다. 🔍 왜 주목해야 하나 Gemma 4의 포인트는 작은 오픈 모델을 단순 경량 대안이…
Microsoft가 2026년 4월 2일 MAI-Transcribe-1, MAI-Voice-1, MAI-Image-2를 공개했다. 세 모델은 Microsoft Foundry와 MAI Playground에서 즉시 사용 가능하며, MAI-Transcribe-1은 상위 25개 언어 대상 음성 인식, MAI-Voice-1은 1초에 60초 분량 음성 생성, MAI-Image-2는 Copilot과…
Alibaba가 2026년 4월 2일 Qwen3.6-Plus를 공개했다. 기본 1M 토큰 컨텍스트 윈도우와 멀티모달 네이티브 지원, 리포지토리 수준 코딩 에이전트 기능을 갖췄으며, SWE-bench와 Terminal-Bench 2.0에서 Anthropic Claude Opus 4.5와 동등한 성능을 기록했다. 🔍 왜 주목해야 하나 이번 릴리즈는 Qwen 시리즈가 단순 벤치마크 경쟁을 넘어…
Google이 Gemini 3.1 Flash-Lite를 개발자 프리뷰로 출시했다. 입력 $0.25/1M 토큰(Pro의 1/8 수준), 출력 $1.50/1M 토큰이며, Gemini 2.5 Flash 대비 Time to First Token 2.5배 향상, 출력 속도 45% 향상을 달성하면서 핵심 성능 지표에서는 Gemini 2.5 Flash와 동등하다. 🔍 왜 주목해야 하나…
PrismML이 2026년 3월 31일 세계 최초로 상용 수준 1-bit LLM 'Bonsai' 시리즈를 공개했다. 8B·4B·1.7B 세 가지 모델을 Apache 2.0 라이센스로 무료 배포하며, 기존 FP16 대비 메모리를 14배 절감하고 추론 속도를 8배 높이면서도 동급 모델과 동일한 벤치마크 성능을 유지한다. 🔍 왜 주목해야 하나 1-bit 양자화는 이론적으로는 오래 검토된…
NVIDIA가 에이전트 워크로드 특화 오픈소스 모델 Nemotron 3 Super를 공개했다. Mamba-Transformer 하이브리드 MoE 아키텍처로 원래 1,200억 파라미터에서 활성 파라미터 120억만 사용, SWE-Bench Verified 60.47% 및 PinchBench 85.6%로 동급 오픈소스 최고 성능을 기록했다. 🔍 왜 주목해야 하나 Nemotron 3 Super는…
Google Research가 LLM의 KV 캐시 메모리를 6배 압축하면서 정확도 손실이 없는 알고리즘 TurboQuant를 공개했다. 16비트에서 3비트로의 훈련 없는(training-free) 압축으로 NVIDIA H100에서 최대 8배의 어텐션 연산 속도 향상을 달성하며, ICLR 2026 발표 예정이다. 🔍 왜 주목해야 하나 LLM 추론의 핵심 병목은 메모리 대역폭이며, KV 캐시…
OpenAI가 3월 5일 GPT-5.4를 출시했다. GPT-5.3 Codex의 코딩 역량을 메인라인 추론 모델에 통합한 것으로, 100만 토큰 컨텍스트 윈도우와 멀티스텝 에이전트 워크플로우 자율 실행 능력을 탑재했다. 실제 데스크톱 생산성 태스크를 시뮬레이션하는 OSWorld-V 벤치마크에서 75%를 기록, 인간 기준선(72.4%)을 AI 최초로 초과했다. 🔍 왜 주목해야 하나…
Google의 TurboQuant가 ICLR 2026에서 발표될 예정이다. LLM의 KV 캐시를 3~4비트로 압축해 메모리를 4~6배 절감하면서 정확도 손실이 전혀 없고, H100 GPU에서 32-bit 대비 최대 8배 처리량 향상을 달성한다. 🔍 왜 주목해야 하나 LLM 서빙 인프라의 주요 병목은 긴 컨텍스트 처리 시 KV 캐시가 GPU 메모리를 폭발적으로 소모하는 문제다.…
OpenAI는 3월 29일 GPT-5.4를 출시했다. 컴퓨터 사용(computer use)을 핵심 역량으로 탑재하여 OSWorld-Verified 벤치마크에서 75%를 기록, 인간 평균(72%)을 처음으로 추월했다. 🔍 왜 주목해야 하나 OSWorld는 실제 데스크탑/웹 환경에서 multi-step 작업을 자율 수행하는 능력을 측정하는 벤치마크로, 이전 SOTA가 60~65% 수준에…
Mistral AI가 3월 26일 오픈소스 텍스트-음성 변환 모델 Voxtral TTS(4B 파라미터)를 출시했다. 9개 언어를 지원하고 5초 이하의 음성 샘플로 목소리를 복제하며, 첫 오디오 출력 지연(TTFA)이 90ms에 불과해 실시간 음성 에이전트 구현이 가능하다. 🔍 왜 주목해야 하나 TTS 시장은 ElevenLabs, Deepgram, OpenAI가 독점하다시피 한 유료 API…
NVIDIA가 에이전트 AI 특화 오픈 모델 Nemotron 3 패밀리를 출시했다. 플래그십인 Nemotron 3 Super는 120B 파라미터(활성 12B)의 Mamba-Transformer MoE 하이브리드 아키텍처를 채택해 Nemotron 2 대비 5배 처리량을 달성하고 1M 토큰 컨텍스트 윈도우를 지원한다. 🔍 왜 주목해야 하나 에이전트 AI 시스템에서 모델 선택의 핵심 기준은…
Google이 LLM의 KV-캐시를 채널당 3.5비트로 압쳙하는 오픈소스 양자화 기법 TurboQuant를 공개했다. 메모리 사용량을 최대 6배 줄이고 추론 속도를 대폭 향상시킨다. 🔍 왜 주목해야 하나 KV-캐시는 긴 컨텍스트를 처리할 때 VRAM 사용량이 폭발적으로 증가하는 핵심 병목 구간이다. TurboQuant이 INT8 기준(2배 절감)대비 3배나 나은 6배 메모리 절감을…
OpenAI가 Amazon $500억, Nvidia·SoftBank 각 $300억 등으로 구성된 총 $1,200억 평더링 라운드를 마무리했다. Pre-money 기업가치 $7,300억으로, 2026년 AI 산업 내 최대 단일 투자 이벤트다. 🔍 왜 주목해야 하나 $1,200억이라는 규모도 이례적이지만 투자 구조가 더 중요하다. Amazon $500억은 AWS 인프라를 통한 전략적 결합을…
Anthropicが내부 테스트 중이던 신규 모델 'Mythos(Claude Mythos/Opus 5)'가 데이터 유출로 공개됐다. 소프트웨어 코딩, 학술 추론, 사이버보안 영역에서 Claude Opus 4.6 대비 "극적으로 높은 점수"를 기록한 것으로 알려졌다. 🔍 왜 주목해야 하나 Anthropicは Mythos를 "역대 가장 강력한 모델"이자 "역량의 단계적 도약(step…
Alibaba가 0.8B, 2B, 4B, 9B 파라미터 4종의 Qwen 3.5 소형 모델을 Apache 2.0 라이선스로 공개했다. 9B 모델이 GPQA Diamond 벤치마크에서 81.7점을 기록해 GPT-OSS-120B(71.5점)를 13.6% 앞질렀다. 🔍 왜 주목해야 하나 9B 모델이 120B 규모 모델을 정확도에서 앞선다는 것은 단순한 스케일업이 아닌 아키텍처·학습 데이터…
Google Research가 공개한 TurboQuant는 3-bit 벡터 양자화 기법을 통해 LLM의 KV 캐시 메모리를 6배 줄이면서 H100 GPU에서 최대 8배 추론 속도 향상을 달성했다. 정확도 손실 없이 이를 구현한 점이 핵심이다. 🔍 왜 주목해야 하나 기존 4-bit 양자화(GPTQ, AWQ 등)는 정확도 손실을 감수하며 메모리를 줄이는 트레이드오프가 있었다.…
프랑스 Mistral AI가 공개한 22B 파라미터의 Mistral Small 4가 추론 및 지시 수행 벤치마크에서 자신보다 3~5배 큰 클로즈드 모델들을 앞질렀다. Apache 2.0 라이선스로 제공되며 상업적 이용도 자유롭다. 🔍 왜 주목해야 하나 22B 모델이 60B~100B급 클로즈드 모델과 동급이거나 우세하다는 것은 오픈소스 진영의 기술력이 클로즈드 생태계를 본격적으로 위협하는…
튜링상 수상자 Yann LeCun이 설립한 Advanced Machine Intelligence(AMI) Labs가 유럽 역사상 최대 시드 라운드인 $10.3억을 $35억 밸류에이션으로 유치했다. NVIDIA, Bezos Expeditions, Temasek이 참여했다. 🔍 왜 주목해야 하나 이 딜은 두 가지 메시지를 동시에 전달한다. 첫째, LeCun이 지속적으로 비판해온 '스케일링…
Anthropicが 비보안 데이터 캐시를 통해 실수로 유출된 내부 코드명 'Capybara'(공개명 Claude Mythos)는 현존 최고 모델인 Claude Opus 4.6 대비 코딩·추론·사이버보안 모든 벤치마크에서 급격한 성능 향상을 보이는 차세대 최대급 모델이다. 🔍 왜 주목해야 하나 Mythos는 단순한 다음 버전 모델이 아니라 Anthropic 스스로 "step…
Google Research가 ICLR 2026에서 발표한 TurboQuant는 LLM 추론의 가장 큰 메모리 병목인 KV 캐시를 3~4비트로 압축해 메모리 사용량을 최대 6배 절감하는 알고리즘으로, 재학습이나 파인튜닝 없이 적용 가능하며 품질 손실이 사실상 없다. 🔍 왜 주목해야 하나 기존 KV 캐시 양자화 기법들은 품질 저하와 복잡한 재훈련을 요구하는 트레이드오프가 있었다.…
Mistral AI가 3월 중순 출시한 Mistral Small 4는 119B 파라미터 Mixture-of-Experts(MoE) 구조의 오픈소스 모델로, Apache 2.0 라이선스 하에 상업적 무제한 사용이 가능하며 토큰당 활성 파라미터는 6B에 불과해 추론 속도가 매우 빠르다. 🔍 왜 주목해야 하나 기존 오픈소스 모델들이 성능과 라이선스 유연성 사이에서 트레이드오프를 강요받아…
Anthropic이 내부 테스트 중이던 차세대 모델 'Claude Mythos(코드명 Capybara)'의 상세 스펙이 unsecured 데이터 스토어를 통해 공개적으로 유출됐다. Anthropic은 이를 '현재까지 개발한 가장 강력한 모델'로 규정하며 코딩·학술 추론·사이버보안 벤치마크에서 Claude Opus 4.6 대비 드라마틱한 수치 향상을 확인했다고 밝혔다. 🔍 왜 주목해야 하나…
François Chollet과 Mike Knoop의 ARC Prize 재단이 ARC-AGI-3를 공개했다. 135개의 오리지널 인터랙티브 환경으로 구성된 이 벤치마크에서 인간은 100%를 달성한 반면, 최고 성능 AI인 Gemini 3.1 Pro는 고작 0.37%에 그쳤다 — GPT-5.4는 0.26%, Claude Opus 4.6은 0.25%다. 🔍 왜 주목해야 하나…
Mistral AI가 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 총 119B 파라미터의 MoE 아키텍처로 활성 파라미터는 6.5B에 불과하지만, 기존에 별도 모델로 운용하던 Magistral(추론), Pixtral(멀티모달), Devstral(에이전트 코딩) 세 가지 역량을 256K 컨텍스트 창 하나로 통합했다. 🔍 왜 주목해야 하나 이 릴리즈의 핵심은…
Alibaba가 Qwen 3.5 Small 시리즈(0.8B·2B·4B·9B)를 Apache 2.0 라이선스로 오픈소스 공개했다. 9B 모델의 GPQA 점수 81.7로 OpenAI의 GPT-OSS-120B(71.5)를 벤치마크에서 앞질렀다. 🔍 왜 주목해야 하나 파라미터 수 대비 추론 성능의 효율이 극적으로 개선되고 있다는 증거다. 9B 모델이 120B를 이긴다는 것은 단순 스케일 경쟁이…
Gartner가 2030년까지 1조 파라미터 규모 LLM의 추론 비용이 2025년 대비 90% 이상 하락할 것으로 공식 예측했다. 하드웨어 개선, 모델 압축(양자화·증류), 추론 최적화 기술이 복합적으로 작용하는 결과다. 🔍 왜 주목해야 하나 90% 비용 하락은 GPT-4급 모델을 현재 GPT-3.5 가격으로, 나아가 GPT-3.5를 현재 룰베이스 시스템 수준의 비용으로 운영할 수 있음을…
Google이 ICLR 2026에서 TurboQuant를 발표했다. KV-cache를 채널당 3.5비트로 압축해 메모리 사용량을 6배 줄이는 소프트웨어 레벨의 LLM 효율화 기법이다. 🔍 왜 주목해야 하나 그간 LLM 성능 경쟁이 파라미터 수와 GPU 클러스터 확장에 집중됐다면, TurboQuant는 소프트웨어·시스템 최적화만으로 동일 하드웨어에서 6배의 메모리 절감을 달성한다. 이는…
Google이 ICLR 2026에서 발표한 TurboQuant 양자화 기술은 LLM의 KV-Cache를 채널당 3.5비트로 압축하여 메모리 사용량을 최대 6배 감소시키면서도 모델 품질을 유지("absolute quality neutrality")하는 데 성공했다. 이 결과로 Micron 등 AI 메모리 공급업체 주가가 즉각 하락했다. 🔍 왜 주목해야 하나 LLM 추론 비용의 핵심 병목은…
Mistral AI가 220억 파라미터 규모의 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 추론 및 지시 수행 벤치마크에서 파라미터 수가 3~5배 많은 클로즈드 모델 여러 개를 상회하는 성능을 보였다. 🔍 왜 주목해야 하나 "규모의 법칙(scaling law)"에 대한 기존 믿음이 흔들리고 있다. 22B 모델이 100B+ 규모 클로즈드 모델을 이기는 패턴이…
Meta AI 수석 과학자 Yann LeCun이 설립한 AMI Labs가 유럽 역사상 최대 시드 라운드인 $10.3억을 조달했다. Bezos, Nvidia, Samsung, Temasek이 참여했으며, 목표는 JEPA(Joint Embedding Predictive Architecture) 기반의 월드모델(world model)을 구축하는 것이다. 🔍 왜 주목해야 하나 LeCun은 수년간…
Google이 LLM의 KV 캐시를 기존 16비트에서 3비트로 압축해 메모리 사용량을 최소 6배 줄이면서도 정확도 손실이 없는 알고리즘 TurboQuant를 공개했다. ICLR 2026에서 정식 발표 예정이며, H100 GPU에서 4비트 적용 시 32비트 대비 최대 8배 추론 성능 향상이 확인됐다. 🔍 왜 주목해야 하나 KV 캐시는 긴 컨텍스트 처리 시 GPU 메모리의 가장 큰 병목…
Mistral AI가 3월 17일 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 119B 파라미터 MoE 구조로 추론 시 약 22B만 활성화되며, 256K 컨텍스트 윈도우와 멀티모달(비전) 기능을 단일 모델에 통합했다. 전작 Small 3 대비 엔드투엔드 완료 시간 40% 단축, 처리량 3배 향상을 달성했다. 🔍 왜 주목해야 하나 LiveCodeBench에서…
NVIDIA가 GTC 2026에서 120B 전체 파라미터, 12B 활성 파라미터의 하이브리드 Mamba-Transformer MoE 아키텍처 기반 오픈 웨이트 모델 Nemotron 3 Super를 Apache 2.0으로 공개했다. 소프트웨어 개발과 사이버보안 트리아지 등 복잡한 멀티에이전트 태스크를 타겟으로 하며, 10조 토큰 규모의 학습 데이터도 함께 공개됐다. 🔍 왜 주목해야 하나…
ARC Prize가 3월 25일 ARC-AGI-3을 공식 출시했다. 텍스트 지시 없이 낯선 환경을 탐색하며 목표를 스스로 설정해야 하는 인터랙티브 추론 과제로 구성되며, 인간은 100% 해결하는 반면 GPT-5.4(0.26%), Claude Opus 4.6(0.25%), Gemini 3.1 Pro(0.37%), Grok-4.20(0.00%) 등 최상위 프론티어 모델은 모두 1% 미만을…
Google Research가 LLM의 KV(Key-Value) 캐시를 3비트로 압축해 메모리를 6배 절감하면서도 정확도 손실이 전혀 없는 알고리즘 TurboQuant를 공개했다. Nvidia H100 기준 Attention 연산 속도 최대 8배 향상을 기록하며 ICLR 2026에 채택됐다. 🔍 왜 주목해야 하나 LLM 추론의 병목은 항상 KV 캐시 메모리였다. 모델 파라미터가 아닌…
Mistral AI가 2026년 3월 16일, 119B 파라미터 Mixture-of-Experts 아키텍처의 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 토큰당 활성 파라미터는 6B으로, 기존 Magistral(추론), Pixtral(비전), Devstral(에이전트 코딩) 세 모델의 기능을 하나로 통합했다. 🔍 왜 주목해야 하나 '하나의 오픈소스 모델로 세…
Alibaba가 0.8B, 2B, 4B, 9B 네 가지 크기의 Qwen 3.5 Small 시리즈를 Apache 2.0 라이선스로 공개했다. 텍스트, 이미지, 비디오를 네이티브 멀티모달로 처리하며, 9B 모델이 GPQA Diamond 벤치마크에서 81.7점을 기록해 GPT-oss-120B(71.5점)를 상회했다. 🔍 왜 주목해야 하나 파라미터 규모가 13배 이상 차이 나는 모델을 GPQA…
Google 리서치팀이 LLM의 KV(Key-Value) 캐시를 6배 압축하면서도 정확도 손실이 전혀 없는 새로운 양자화 알고리즘 TurboQuant를 공개했다. NVIDIA H100 GPU 기준 어텐션 연산 속도를 최대 8배 향상시키며, 재학습이나 파인튜닝 없이 즉시 적용 가능하다. 🔍 왜 주목해야 하나 LLM 서빙의 핵심 병목은 GPU 메모리 대역폭인데, TurboQuant는 KV…
OpenAI가 GPT-oss-120B(MoE, 활성 파라미터 5.1B)와 GPT-oss-20B 두 모델을 Apache 2.0 라이선스로 Hugging Face에 공개했다. GPT-oss-120B는 단일 80GB GPU(H100, MI300X)에서 실행 가능하며, 핵심 추론 벤치마크에서 o4-mini에 근접하는 성능을 기록한다. 🔍 왜 주목해야 하나 Meta의 Llama 시리즈가 오픈…
데이터베이스에서 실행할 수 있는 가장 간단한 테스트 중 하나는 다음과 같습니다.
AI 사용의 불가피성에 대한 질문
GPT-5.4 소식의 핵심을 빠르게 정리하면, AI 모델 흐름에서 다음 변화를 미리 읽게 해주는 이슈입니다. 이 글에서는 사실 관계와 맥락, 그리고 실무자가 바로 참고할 포인트를 뉴스레터 톤으로 전달합니다.
How do I cancel my ChatGPT subscription? 소식의 핵심을 빠르게 정리하면, AI 모델 흐름에서 다음 변화를 미리 읽게 해주는 이슈입니다. 이 글에서는 사실 관계와 맥락, 그리고 실무자가 바로 참고할 포인트를 뉴스레터 톤으로 전달합니다.
소식의 핵심을 빠르게 정리하면, AI 모델 흐름에서 다음 변화를 미리 읽게 해주는 이슈입니다. 이 글에서는 사실 관계와 맥락, 그리고 실무자가 바로 참고할 포인트를 뉴스레터 톤으로 전달합니다.
Google은 개발자들에게 Google API 키(예: 지도, Firebase 등에 사용되는 키)가 비밀이 아니라는 사실을 알리는 데 10년 넘게 시간을 보냈습니다. 그러나 그것은 더 이상 사실이 아닙니다.
신뢰할 수 있는 에이전트를 위한 개발자 플랫폼
3.1 Pro is designed for tasks where a simple answer isn’t enough. (카테고리: AI 모델, HN 961점·댓글 910)
Claude Sonnet 4.6 is a full upgrade of the model’s skills across coding, computer use, long-reasoning, agent planning, knowledge work, and design. (카테고리: AI 모델, HN 1345점·댓글 1223)
We’re releasing a major upgrade to Gemini 3 Deep Think, our specialized reasoning mode. (카테고리: AI 모델, HN 1080점·댓글 693)