PickleeAI와 개발에 대한 짧은 노트
홈아티클아카이브검색

끝까지 읽는 글

AI와 개발에 관한 변화 중에서 블로그처럼 오래 읽을 수 있는 글만 골라 정리합니다.

© 2026 Picklee

RSSSitemap

태그

#모델

78개의 글이 이 태그 아래에 있습니다.

이동

전체 글 보기
2026년 5월 2일

NVIDIA Nemotron 3 Nano Omni — multimodal agent 스택이 모델 조합에서 단일 perception sub-agent로 수렴

NVIDIA는 2026년 4월 28일 vision·audio·video·text를 한 모델에서 처리하는 오픈 multimodal reasoning model Nemotron 3 Nano Omni를 발표했다. 이 모델은 30B-A3B hybrid MoE, 256K context를 기반으로 document intelligence·video/audio understanding…

AI
오픈소스
2026년 4월 30일

Qwen3.6 — 오픈 코딩 모델 경쟁이 벤치마크보다 저장된 추론과 레포 단위 작업 완성도로 이동

Qwen 팀은 2026년 4월 Qwen3.6 시리즈를 공개하며 35B-A3B와 27B 모델을 순차 배포했다. 공식 저장소 기준으로 이번 릴리스는 agentic coding, front-end workflow, repository-level reasoning 강화와 함께 conversation history 전반에 thinking context를 유지하는 Thinking…

AI
모델
2026년 4월 26일

Nemotron-Personas-Korea — 한국 실제 분포 기반 합성 페르소나 데이터셋

NVIDIA가 공개한 한국어 합성 페르소나 데이터셋으로, 한국의 공개 통계와 지역·직업·교육 등 사회적 분포를 바탕으로 100만 개 규모의 페르소나 레코드를 구성한 자료다. 한국어 모델 학습과 시뮬레이션에서 한국형 맥락을 반영하는 데 참고할 수 있다. 소버린 AI, 한국어 LLM 학습, 합성 데이터 다양성 확대 관점에서 볼 만하다. 영어권 중심 페르소나 데이터셋으로는 놓치기 쉬운 지역성과…

AI
모델
2026년 4월 25일

DeepSeek V4 Preview — 오픈 모델 경쟁이 성능 추격에서 가격·맥락 길이·지정학적 자립성의 복합전으로 이동

DeepSeek는 2026년 4월 24일 V4 Preview를 공개했다. V4 Pro는 1.6T total / 49B active parameters, V4 Flash는 284B total / 13B active parameters를 갖고 두 모델 모두 1M token context를 지원하며, Flash는 입력 토큰 100만 개당 0.14달러로 제시됐다. 🔍 왜 주목해야 하나 이 발표의…

AI
모델
2026년 4월 25일

Mistral 3 — 오픈 모델 경쟁이 단일 플래그십에서 full-stack open portfolio 전략으로 이동

Mistral AI는 최근 Mistral 3를 공개하며 675B total / 41B active의 Mistral Large 3와 3B·8B·14B 규모의 Ministral 3 시리즈를 함께 내놨다. 전 모델을 Apache 2.0으로 공개하고, Large 3는 8×A100 또는 8×H100 단일 노드 배포 경로, 소형 모델은 edge·robotics 환경까지 겨냥하며 배포 범위를 넓혔다.…

AI
모델
2026년 4월 24일

GPT-Rosalind for life sciences — frontier model 경쟁이 범용 지능에서 도메인 특화 연구 워크플로로 확장

OpenAI는 2026년 4월 16일 biology, drug discovery, translational medicine 연구용 모델인 GPT-Rosalind를 research preview로 공개했다. 이 모델은 ChatGPT, Codex, API에서 qualified customer 대상으로 제공되며, LABBench2의 11개 과제 중 6개에서 GPT-5.4를 앞섰고, Codex 앱…

AI
OpenAI
2026년 4월 24일

Introducing GPT-5.5 — 에이전트형 지식노동의 병목이 모델 성능보다 실행 효율과 자율성 설계로 이동

OpenAI는 2026년 4월 23일 GPT-5.5를 공개했고, 4월 24일에는 API 제공까지 시작했다. GPT-5.5는 Terminal-Bench 2.0에서 82.7%, SWE-Bench Pro에서 58.6%, GDPval에서 84.9%, OSWorld-Verified에서 78.7%를 기록하며 GPT-5.4 대비 더 높은 성능과 더 낮은 토큰 사용량을 동시에 내세웠다. 🔍 왜 주목해야…

AI
OpenAI
2026년 4월 23일

ChatGPT Images 2.0

ChatGPT Images 2.0 소식의 핵심을 빠르게 정리하면, AI 모델 흐름에서 다음 변화를 미리 읽게 해주는 이슈입니다. 이 글에서는 사실 관계와 맥락, 그리고 실무자가 바로 참고할 포인트를 뉴스레터 톤으로 전달합니다.

트렌드
AI
2026년 4월 22일

OpenAI Privacy Filter — privacy 인프라가 규칙 기반 필터에서 로컬 실행 가능한 specialist model로 이동

OpenAI는 2026년 4월 22일 PII 탐지·마스킹용 open-weight 모델인 Privacy Filter를 공개했다. 이 모델은 최대 128K 컨텍스트를 지원하는 1.5B 파라미터급 token-classification 모델로, PII-Masking-300k 기준 96% F1과 수정 평가셋 기준 97.43% F1을 제시하며 Apache 2.0 라이선스로 Hugging Face와…

AI
OpenAI
2026년 4월 20일

The local LLM ecosystem doesn’t need Ollama

Ollama는 최초의 간편한 llama.cpp 래퍼로 인기를 얻었고, 다른 사람의 엔진에서 벌어들인 VC 자금을 활용하면서 속성을 피하고, 사용자를 오도하고, 클라우드로 전환하는 데 수년을 보냈습니다. 전체 기록과 대안이 더 나은 이유는 다음과 같습니다.

트렌드
AI
2026년 4월 19일

Gemini 3.1 Flash TTS: 음성 AI의 경쟁 축이 품질에서 제어 가능성으로 이동

Google은 2026년 4월 15일 Gemini 3.1 Flash TTS를 발표하고 Gemini API, Google AI Studio, Vertex AI, Google Vids에 preview로 배포하기 시작했다. 이 모델은 70개 이상 언어를 지원하고, Artificial Analysis TTS leaderboard에서 Elo 1,211을 기록했으며, natural-language…

AI
트렌드
2026년 4월 19일

Gemini Robotics-ER 1.6: Google이 embodied reasoning을 산업용 로봇 제어면으로 끌어올리다

Google DeepMind는 2026년 4월 14일 Gemini Robotics-ER 1.6을 공개하고 Gemini API와 Google AI Studio에서 즉시 사용할 수 있게 했다. 새 버전은 spatial reasoning, multi-view success detection, instrument reading을 강화했고, instrument reading 정확도는 agentic…

AI
트렌드
2026년 4월 18일

Introducing Muse Spark — Meta가 consumer AI를 단일 챗봇에서 멀티모달 subagent 경험으로 재설계

Meta는 2026년 4월 8일 Meta Superintelligence Labs의 첫 모델인 Muse Spark를 공개했다. 이 모델은 현재 Meta AI 앱과 웹을 구동하며, 향후 WhatsApp·Instagram·Facebook·Messenger·AI glasses로 확장되고, select partners 대상 private preview API도 제공될 예정이다. 🔍 왜 주목해야…

AI
트렌드
2026년 4월 17일

Mistral Small 4 공개 — 오픈 모델 전략이 단일 체크포인트에서 다기능 통합형 reasoning stack으로 이동

Mistral은 2026년 4월 16일 Mistral Small 4를 발표했다. 이 모델은 119B total parameters, 6B active parameters의 128-expert MoE 구조와 256k context window를 갖고, reasoning·multimodal·agentic coding을 하나로 묶은 Apache 2.0 오픈 모델로 제공된다. 🔍 왜 주목해야…

AI
트렌드
2026년 4월 17일

Claude Opus 4.7

Anthropic은 신뢰할 수 있고 해석 가능하며 조종 가능한 AI 시스템을 구축하기 위해 노력하는 AI 안전 및 연구 회사입니다.

트렌드
AI
2026년 4월 15일

Hugging Face State of Open Source Spring 2026 — 오픈 모델 경쟁의 축이 성능에서 주권·배포·파생 생태계로 이동

Hugging Face는 2026년 봄 오픈소스 AI 리포트를 통해 2025년 신규 trending model의 다수가 China에서 개발되었거나 China-origin 모델 파생형이었고, Alibaba의 Qwen 계열은 11만 3천 개 이상의 derivative models를 만들었다고 정리했다. 또 1-9B급 모델의 상위군은 100B+ 모델 대비 median 기준 약 4배 높은…

AI
트렌드
2026년 4월 14일

SuperGemma4-26B MLX 4-bit v2

Apple Silicon용 Gemma 4 26B 기반 MLX 4-bit 모델 카드. 텍스트 중심 로컬 에이전트 작업을 겨냥한 빠른 추론형 변형으로 소개된다.

AI
모델
2026년 4월 12일

Gemma 4 공개 — Google이 open model 전략을 Apache 2.0과 on-device 배포로 다시 밀어붙이다

Google DeepMind는 2026년 4월 2일 Gemma 4를 공개했다. 새 라인업은 E2B, E4B, 26B MoE, 31B Dense 네 가지 크기로 구성되며 Apache 2.0 라이선스로 배포되고, 31B 모델은 Arena 기준 당시 세계 오픈 모델 3위, 26B 모델은 6위라고 밝혔다. 🔍 왜 주목해야 하나 이번 발표의 본질은 Google이 Gemini 같은 폐쇄형 모델과…

AI
트렌드
2026년 4월 12일

Mistral 3 공개 — 오픈 멀티모달 모델 경쟁이 frontier급과 edge급 이중 전선으로 재편되다

Mistral AI는 2026년 4월 초 Mistral 3를 공개했다. 라인업은 14B·8B·3B의 소형 dense 모델과 41B active/675B total parameters의 Mistral Large 3로 구성되며, 전 모델을 Apache 2.0 라이선스로 공개했고 Large 3는 LMArena 기준 오픈 비추론 모델 2위라고 밝혔다. 🔍 왜 주목해야 하나 이 발표는 오픈 모델…

AI
트렌드
2026년 4월 9일

Meta, Muse Spark 공개 — Meta AI를 'social-context aware' personal superintelligence로 재정의

Meta는 2026년 4월 8일 Meta Superintelligence Labs의 첫 모델 Muse Spark를 공개했다. 이 모델은 Meta AI 앱과 meta.ai를 즉시 구동하며, Instant/Thinking 모드, 병렬 subagent 실행, multimodal perception, visual coding, 향후 Instagram·Facebook·Threads 콘텐츠 인용…

AI
모델
2026년 4월 8일

Cursor, warp decode 공개 — Blackwell 기반 MoE 추론을 1.84x 가속하며 정확도도 개선

Cursor는 2026년 4월 6일 warp decode를 공개하며, Blackwell GPU에서 Mixture-of-Experts(MoE) decode 경로의 병렬화 축을 expert 중심에서 output 중심으로 뒤집어 1.84x throughput 향상과 FP32 기준 1.4x 더 높은 정확도를 얻었다고 밝혔다. 기존 expert-centric 경로의 8단계 중 5단계를 제거하고,…

AI
모델
2026년 4월 6일

AirLLM — 4GB GPU에서 70B LLM 돌리는 초경량 추론 라이브러리

양자화나 증류 없이 70B 모델을 4GB GPU에서, Llama 3.1 405B를 8GB VRAM에서 실행할 수 있는 추론 최적화 라이브러리. 계층별 모델 분해(layer-wise decomposition)로 필요한 레이어만 메모리에 로드하는 방식. 블록 단위 양자화 압축으로 3배 속도 향상. GitHub 스타 15k+. 🔍 왜 주목해야 하나 대부분의 LLM 최적화는 모델 자체를 줄이는…

오픈소스
무료
2026년 4월 5일

Google Gemma 4 공개 — Apache 2.0·256K 컨텍스트·멀티모달, 오픈 에이전틱 모델의 새 기준

Google이 4월 2~3일 Gemma 4를 Apache 2.0 라이선스로 공개했다. Effective 2B·4B·26B MoE·31B Dense 네 가지 크기로 제공되며, 256K 토큰 컨텍스트, 비전·오디오 네이티브 멀티모달, 140개 이상 언어를 지원한다. 🔍 왜 주목해야 하나 Gemma 4는 Gemini 3와 동일한 연구 기반으로 제작됐으면서 상업 제한 없는 Apache 2.0으로…

트렌드
오픈소스
2026년 4월 5일

PrismML, Bonsai 1-bit LLM 출시 — 1GB 메모리로 8B 추론, 엣지 AI의 현실화

PrismML이 4월 3일 스텔스에서 등장해 세계 최초 상업적으로 실행 가능한 1-bit LLM 패밀리 Bonsai를 Apache 2.0으로 공개했다. 플래그십인 Bonsai 8B는 1.15GB 메모리에 구동되며, FP16 8B 모델 대비 14배 소형·8배 빠른 속도·5배 낮은 에너지 소비를 달성하면서 추론 품질은 동급 수준을 유지한다. 🔍 왜 주목해야 하나 1-bit LLM은…

트렌드
오픈소스
2026년 4월 5일

Google TurboQuant — KV Cache 6배 압축·H100 어텐션 8배 가속, 정확도 손실 제로로 LLM 서빙 비용 구조 재정의

Google Research가 공개한 TurboQuant는 LLM의 KV Cache를 3비트로 압축하는 학습 불필요(training-free) 벡터 양자화 알고리즘이다. 메모리 사용량 6배 감소, NVIDIA H100 어텐션 연산 8배 가속을 정확도 손실 없이 달성하며 ICLR 2026에 발표된다. 🔍 왜 주목해야 하나 LLM 서빙의 핵심 병목은 KV Cache 메모리다. 100K+ 토큰…

트렌드
AI
2026년 4월 4일

Google Gemini 3.1 Flash Live 공개 — 실시간 음성 에이전트용 오디오 모델, ComplexFuncBench Audio 90.8%

Google은 2026년 3월 26일 Gemini 3.1 Flash Live를 공개하며 실시간 음성 대화용 모델을 Live API preview로 제공하기 시작했다. Google 발표에 따르면 이 모델은 ComplexFuncBench Audio에서 90.8%, Audio MultiChallenge에서 36.1%를 기록하며 다단계 함수 호출과 장기 오디오 추론 성능을 끌어올렸다. 🔍 왜…

트렌드
API
2026년 4월 3일

NVIDIA Blackwell Ultra, MLPerf Inference v6.0 신기록 — 288 GPU로 DeepSeek-R1 초당 249만 토큰 처리

NVIDIA Blackwell Ultra(GB300 NVL72 4시스템, 총 288 GPU)가 MLPerf Inference v6.0에서 DeepSeek-R1 오프라인 처리량 기준 초당 249만 토큰을 기록하며 6개월 전 대비 최대 2.77배 향상된 성능으로 전 카테고리를 석권했다. 이번 벤치마크에 Qwen3-VL-235B, GPT-OSS-120B, 텍스트-투-비디오(WAN-2.2) 등…

트렌드
AI
2026년 4월 3일

Arcee Trinity-Large-Thinking 출시 — 미국계 오픈 에이전트 모델이 가격 대비 frontier 경쟁력 제시

Arcee AI가 2026년 4월 1일 Trinity-Large-Thinking을 공개했다. Apache 2.0 오픈웨이트 reasoning 모델로, long-horizon agent와 multi-turn tool calling에 초점을 맞췄고 PinchBench에서 Opus 4.6 바로 아래 2위를 기록했다고 밝혔다. 🔍 왜 주목해야 하나 이 모델의 의미는 단순히 또 하나의 오픈 모델이…

AI
모델
2026년 4월 3일

Gemma 4 공개 — Apache 2.0 오픈 모델을 agentic workflow 중심으로 재정의

Google DeepMind가 2026년 4월 2일 Gemma 4를 공개했다. E2B, E4B, 26B MoE, 31B Dense 네 가지 크기로 출시됐고, Apache 2.0 라이선스 아래 reasoning, function calling, JSON output, vision/audio 입력까지 지원한다. 🔍 왜 주목해야 하나 Gemma 4의 포인트는 작은 오픈 모델을 단순 경량 대안이…

AI
모델
2026년 4월 3일

Microsoft, MAI 모델 3종 출시 — Foundry를 독자 멀티모달 모델 유통 채널로 본격 전환

Microsoft가 2026년 4월 2일 MAI-Transcribe-1, MAI-Voice-1, MAI-Image-2를 공개했다. 세 모델은 Microsoft Foundry와 MAI Playground에서 즉시 사용 가능하며, MAI-Transcribe-1은 상위 25개 언어 대상 음성 인식, MAI-Voice-1은 1초에 60초 분량 음성 생성, MAI-Image-2는 Copilot과…

AI
모델
2026년 4월 2일

Alibaba Qwen3.6-Plus 공개 — 1M 컨텍스트·에이전트 코딩, Claude Opus 4.5 수준 달성

Alibaba가 2026년 4월 2일 Qwen3.6-Plus를 공개했다. 기본 1M 토큰 컨텍스트 윈도우와 멀티모달 네이티브 지원, 리포지토리 수준 코딩 에이전트 기능을 갖췄으며, SWE-bench와 Terminal-Bench 2.0에서 Anthropic Claude Opus 4.5와 동등한 성능을 기록했다. 🔍 왜 주목해야 하나 이번 릴리즈는 Qwen 시리즈가 단순 벤치마크 경쟁을 넘어…

AI
모델
2026년 4월 2일

Google Gemini 3.1 Flash-Lite 출시 — Pro 대비 1/8 가격에 Gemini 2.5 Flash 동등 성능

Google이 Gemini 3.1 Flash-Lite를 개발자 프리뷰로 출시했다. 입력 $0.25/1M 토큰(Pro의 1/8 수준), 출력 $1.50/1M 토큰이며, Gemini 2.5 Flash 대비 Time to First Token 2.5배 향상, 출력 속도 45% 향상을 달성하면서 핵심 성능 지표에서는 Gemini 2.5 Flash와 동등하다. 🔍 왜 주목해야 하나…

AI
모델
2026년 4월 2일

PrismML Bonsai — 세계 최초 상용 가능 1-bit LLM, iPhone에서 44 tok/s 달성

PrismML이 2026년 3월 31일 세계 최초로 상용 수준 1-bit LLM 'Bonsai' 시리즈를 공개했다. 8B·4B·1.7B 세 가지 모델을 Apache 2.0 라이센스로 무료 배포하며, 기존 FP16 대비 메모리를 14배 절감하고 추론 속도를 8배 높이면서도 동급 모델과 동일한 벤치마크 성능을 유지한다. 🔍 왜 주목해야 하나 1-bit 양자화는 이론적으로는 오래 검토된…

AI
오픈소스
2026년 4월 1일

NVIDIA Nemotron 3 Super — 120B MoE 오픈소스 에이전트 모델, SWE-Bench 60.5% 달성

NVIDIA가 에이전트 워크로드 특화 오픈소스 모델 Nemotron 3 Super를 공개했다. Mamba-Transformer 하이브리드 MoE 아키텍처로 원래 1,200억 파라미터에서 활성 파라미터 120억만 사용, SWE-Bench Verified 60.47% 및 PinchBench 85.6%로 동급 오픈소스 최고 성능을 기록했다. 🔍 왜 주목해야 하나 Nemotron 3 Super는…

트렌드
오픈소스
2026년 4월 1일

Google TurboQuant — LLM KV 캐시 메모리 6배 압축, H100에서 8배 속도 향상

Google Research가 LLM의 KV 캐시 메모리를 6배 압축하면서 정확도 손실이 없는 알고리즘 TurboQuant를 공개했다. 16비트에서 3비트로의 훈련 없는(training-free) 압축으로 NVIDIA H100에서 최대 8배의 어텐션 연산 속도 향상을 달성하며, ICLR 2026 발표 예정이다. 🔍 왜 주목해야 하나 LLM 추론의 핵심 병목은 메모리 대역폭이며, KV 캐시…

트렌드
AI
2026년 4월 1일

GPT-5.4 출시 — 추론·코딩·에이전트 통합 모델, OSWorld-V 인간 기준선 AI 최초 초과

OpenAI가 3월 5일 GPT-5.4를 출시했다. GPT-5.3 Codex의 코딩 역량을 메인라인 추론 모델에 통합한 것으로, 100만 토큰 컨텍스트 윈도우와 멀티스텝 에이전트 워크플로우 자율 실행 능력을 탑재했다. 실제 데스크톱 생산성 태스크를 시뮬레이션하는 OSWorld-V 벤치마크에서 75%를 기록, 인간 기준선(72.4%)을 AI 최초로 초과했다. 🔍 왜 주목해야 하나…

AI
모델
2026년 3월 31일

Google TurboQuant — KV 캐시를 3비트로 6배 압축, 재학습 없이 H100에서 8배 처리량

Google의 TurboQuant가 ICLR 2026에서 발표될 예정이다. LLM의 KV 캐시를 3~4비트로 압축해 메모리를 4~6배 절감하면서 정확도 손실이 전혀 없고, H100 GPU에서 32-bit 대비 최대 8배 처리량 향상을 달성한다. 🔍 왜 주목해야 하나 LLM 서빙 인프라의 주요 병목은 긴 컨텍스트 처리 시 KV 캐시가 GPU 메모리를 폭발적으로 소모하는 문제다.…

AI
모델
2026년 3월 31일

GPT-5.4 출시 — 컴퓨터 사용 에이전트로 인간 기준선(OSWorld 72%) 돌파

OpenAI는 3월 29일 GPT-5.4를 출시했다. 컴퓨터 사용(computer use)을 핵심 역량으로 탑재하여 OSWorld-Verified 벤치마크에서 75%를 기록, 인간 평균(72%)을 처음으로 추월했다. 🔍 왜 주목해야 하나 OSWorld는 실제 데스크탑/웹 환경에서 multi-step 작업을 자율 수행하는 능력을 측정하는 벤치마크로, 이전 SOTA가 60~65% 수준에…

AI
모델
2026년 3월 31일

Mistral Voxtral TTS — 4B 오픈소스 음성 합성 모델, ElevenLabs 대비 7~9배 저렴

Mistral AI가 3월 26일 오픈소스 텍스트-음성 변환 모델 Voxtral TTS(4B 파라미터)를 출시했다. 9개 언어를 지원하고 5초 이하의 음성 샘플로 목소리를 복제하며, 첫 오디오 출력 지연(TTFA)이 90ms에 불과해 실시간 음성 에이전트 구현이 가능하다. 🔍 왜 주목해야 하나 TTS 시장은 ElevenLabs, Deepgram, OpenAI가 독점하다시피 한 유료 API…

AI
모델
2026년 3월 31일

NVIDIA Nemotron 3 Super — 120B Mamba-Transformer MoE 오픈 에이전트 모델, 이전 대비 5배 처리량

NVIDIA가 에이전트 AI 특화 오픈 모델 Nemotron 3 패밀리를 출시했다. 플래그십인 Nemotron 3 Super는 120B 파라미터(활성 12B)의 Mamba-Transformer MoE 하이브리드 아키텍처를 채택해 Nemotron 2 대비 5배 처리량을 달성하고 1M 토큰 컨텍스트 윈도우를 지원한다. 🔍 왜 주목해야 하나 에이전트 AI 시스템에서 모델 선택의 핵심 기준은…

AI
모델
2026년 3월 31일

Google TurboQuant — LLM KV 캐시 3.5비트 압쳙으로 메모리 6배 절감, 오픈소스 공개

Google이 LLM의 KV-캐시를 채널당 3.5비트로 압쳙하는 오픈소스 양자화 기법 TurboQuant를 공개했다. 메모리 사용량을 최대 6배 줄이고 추론 속도를 대폭 향상시킨다. 🔍 왜 주목해야 하나 KV-캐시는 긴 컨텍스트를 처리할 때 VRAM 사용량이 폭발적으로 증가하는 핵심 병목 구간이다. TurboQuant이 INT8 기준(2배 절감)대비 3배나 나은 6배 메모리 절감을…

AI
모델
2026년 3월 31일

OpenAI, $1,200억 역대 최대 평더링 완료 — Amazon $500억 주도, 기업가치 $7,300억 돌파

OpenAI가 Amazon $500억, Nvidia·SoftBank 각 $300억 등으로 구성된 총 $1,200억 평더링 라운드를 마무리했다. Pre-money 기업가치 $7,300억으로, 2026년 AI 산업 내 최대 단일 투자 이벤트다. 🔍 왜 주목해야 하나 $1,200억이라는 규모도 이례적이지만 투자 구조가 더 중요하다. Amazon $500억은 AWS 인프라를 통한 전략적 결합을…

AI
OpenAI
2026년 3월 31일

Anthropic Mythos 유출 — 코딩·사이버보안 SOTA, "역량의 단계적 도약" 확인

Anthropicが내부 테스트 중이던 신규 모델 'Mythos(Claude Mythos/Opus 5)'가 데이터 유출로 공개됐다. 소프트웨어 코딩, 학술 추론, 사이버보안 영역에서 Claude Opus 4.6 대비 "극적으로 높은 점수"를 기록한 것으로 알려졌다. 🔍 왜 주목해야 하나 Anthropicは Mythos를 "역대 가장 강력한 모델"이자 "역량의 단계적 도약(step…

AI
모델
2026년 3월 30일

Alibaba Qwen 3.5 소형 모델 공개 — 9B 파라미터로 GPT-OSS-120B 능가, Apache 2.0 오픈소스

Alibaba가 0.8B, 2B, 4B, 9B 파라미터 4종의 Qwen 3.5 소형 모델을 Apache 2.0 라이선스로 공개했다. 9B 모델이 GPQA Diamond 벤치마크에서 81.7점을 기록해 GPT-OSS-120B(71.5점)를 13.6% 앞질렀다. 🔍 왜 주목해야 하나 9B 모델이 120B 규모 모델을 정확도에서 앞선다는 것은 단순한 스케일업이 아닌 아키텍처·학습 데이터…

AI
모델
2026년 3월 30일

Google TurboQuant, LLM KV 캐시 메모리 6배 절감 — 3-bit 양자화로 H100에서 8배 속도 향상

Google Research가 공개한 TurboQuant는 3-bit 벡터 양자화 기법을 통해 LLM의 KV 캐시 메모리를 6배 줄이면서 H100 GPU에서 최대 8배 추론 속도 향상을 달성했다. 정확도 손실 없이 이를 구현한 점이 핵심이다. 🔍 왜 주목해야 하나 기존 4-bit 양자화(GPTQ, AWQ 등)는 정확도 손실을 감수하며 메모리를 줄이는 트레이드오프가 있었다.…

AI
모델
2026년 3월 30일

Mistral Small 4 (22B), 오픈소스 추론 벤치마크 1위 — 자기 3~5배 규모 클로즈드 모델 추월

프랑스 Mistral AI가 공개한 22B 파라미터의 Mistral Small 4가 추론 및 지시 수행 벤치마크에서 자신보다 3~5배 큰 클로즈드 모델들을 앞질렀다. Apache 2.0 라이선스로 제공되며 상업적 이용도 자유롭다. 🔍 왜 주목해야 하나 22B 모델이 60B~100B급 클로즈드 모델과 동급이거나 우세하다는 것은 오픈소스 진영의 기술력이 클로즈드 생태계를 본격적으로 위협하는…

AI
모델
2026년 3월 30일

Yann LeCun의 AMI Labs, 유럽 역대 최대 시드 $10.3억 조달 — NVIDIA·베이조스 익스피디션 참여

튜링상 수상자 Yann LeCun이 설립한 Advanced Machine Intelligence(AMI) Labs가 유럽 역사상 최대 시드 라운드인 $10.3억을 $35억 밸류에이션으로 유치했다. NVIDIA, Bezos Expeditions, Temasek이 참여했다. 🔍 왜 주목해야 하나 이 딜은 두 가지 메시지를 동시에 전달한다. 첫째, LeCun이 지속적으로 비판해온 '스케일링…

AI
모델
2026년 3월 30일

Anthropic, 데이터 누출로 공개된 차세대 모델 'Claude Mythos' — 사이버보안 역사상 가장 강력한 AI

Anthropicが 비보안 데이터 캐시를 통해 실수로 유출된 내부 코드명 'Capybara'(공개명 Claude Mythos)는 현존 최고 모델인 Claude Opus 4.6 대비 코딩·추론·사이버보안 모든 벤치마크에서 급격한 성능 향상을 보이는 차세대 최대급 모델이다. 🔍 왜 주목해야 하나 Mythos는 단순한 다음 버전 모델이 아니라 Anthropic 스스로 "step…

AI
Claude
2026년 3월 30일

Google TurboQuant, LLM KV 캐시 6배 압축 — 재학습 없이 H100에서 8배 처리량 향상

Google Research가 ICLR 2026에서 발표한 TurboQuant는 LLM 추론의 가장 큰 메모리 병목인 KV 캐시를 3~4비트로 압축해 메모리 사용량을 최대 6배 절감하는 알고리즘으로, 재학습이나 파인튜닝 없이 적용 가능하며 품질 손실이 사실상 없다. 🔍 왜 주목해야 하나 기존 KV 캐시 양자화 기법들은 품질 저하와 복잡한 재훈련을 요구하는 트레이드오프가 있었다.…

AI
모델
2026년 3월 30일

Mistral Small 4, 119B MoE 모델 Apache 2.0 오픈소스 출시 — GPT-OSS 120B 능가하며 추론 효율도 앞서

Mistral AI가 3월 중순 출시한 Mistral Small 4는 119B 파라미터 Mixture-of-Experts(MoE) 구조의 오픈소스 모델로, Apache 2.0 라이선스 하에 상업적 무제한 사용이 가능하며 토큰당 활성 파라미터는 6B에 불과해 추론 속도가 매우 빠르다. 🔍 왜 주목해야 하나 기존 오픈소스 모델들이 성능과 라이선스 유연성 사이에서 트레이드오프를 강요받아…

AI
오픈소스
2026년 3월 30일

Anthropic 'Claude Mythos(Capybara)' 유출 — Opus 4.6 대비 코딩·추론·사이버보안 SOTA, 전례 없는 보안 리스크 공식 경고

Anthropic이 내부 테스트 중이던 차세대 모델 'Claude Mythos(코드명 Capybara)'의 상세 스펙이 unsecured 데이터 스토어를 통해 공개적으로 유출됐다. Anthropic은 이를 '현재까지 개발한 가장 강력한 모델'로 규정하며 코딩·학술 추론·사이버보안 벤치마크에서 Claude Opus 4.6 대비 드라마틱한 수치 향상을 확인했다고 밝혔다. 🔍 왜 주목해야 하나…

AI
Claude
2026년 3월 30일

ARC-AGI-3 출시 — 인간 100% vs 최고 AI 0.37%, 진정한 적응 학습을 요구하는 새로운 AGI 벤치마크

François Chollet과 Mike Knoop의 ARC Prize 재단이 ARC-AGI-3를 공개했다. 135개의 오리지널 인터랙티브 환경으로 구성된 이 벤치마크에서 인간은 100%를 달성한 반면, 최고 성능 AI인 Gemini 3.1 Pro는 고작 0.37%에 그쳤다 — GPT-5.4는 0.26%, Claude Opus 4.6은 0.25%다. 🔍 왜 주목해야 하나…

AI
트렌드
2026년 3월 30일

Mistral Small 4 출시 — 119B MoE (활성 6.5B), Apache 2.0, 추론·멀티모달·코딩 단일 모델 통합

Mistral AI가 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 총 119B 파라미터의 MoE 아키텍처로 활성 파라미터는 6.5B에 불과하지만, 기존에 별도 모델로 운용하던 Magistral(추론), Pixtral(멀티모달), Devstral(에이전트 코딩) 세 가지 역량을 256K 컨텍스트 창 하나로 통합했다. 🔍 왜 주목해야 하나 이 릴리즈의 핵심은…

AI
오픈소스
2026년 3월 29일

Alibaba Qwen 3.5 Small 시리즈 출시: 9B 모델이 GPT 120B를 벤치마크에서 앞질러

Alibaba가 Qwen 3.5 Small 시리즈(0.8B·2B·4B·9B)를 Apache 2.0 라이선스로 오픈소스 공개했다. 9B 모델의 GPQA 점수 81.7로 OpenAI의 GPT-OSS-120B(71.5)를 벤치마크에서 앞질렀다. 🔍 왜 주목해야 하나 파라미터 수 대비 추론 성능의 효율이 극적으로 개선되고 있다는 증거다. 9B 모델이 120B를 이긴다는 것은 단순 스케일 경쟁이…

AI
오픈소스
2026년 3월 29일

Gartner: 2030년까지 1조 파라미터 LLM 추론 비용 90% 하락 예측

Gartner가 2030년까지 1조 파라미터 규모 LLM의 추론 비용이 2025년 대비 90% 이상 하락할 것으로 공식 예측했다. 하드웨어 개선, 모델 압축(양자화·증류), 추론 최적화 기술이 복합적으로 작용하는 결과다. 🔍 왜 주목해야 하나 90% 비용 하락은 GPT-4급 모델을 현재 GPT-3.5 가격으로, 나아가 GPT-3.5를 현재 룰베이스 시스템 수준의 비용으로 운영할 수 있음을…

AI
트렌드
2026년 3월 29일

Google TurboQuant: KV-cache 6배 압축으로 LLM 메모리 혁신, ICLR 2026 발표

Google이 ICLR 2026에서 TurboQuant를 발표했다. KV-cache를 채널당 3.5비트로 압축해 메모리 사용량을 6배 줄이는 소프트웨어 레벨의 LLM 효율화 기법이다. 🔍 왜 주목해야 하나 그간 LLM 성능 경쟁이 파라미터 수와 GPU 클러스터 확장에 집중됐다면, TurboQuant는 소프트웨어·시스템 최적화만으로 동일 하드웨어에서 6배의 메모리 절감을 달성한다. 이는…

AI
트렌드
2026년 3월 28일

Google TurboQuant: LLM KV-Cache 6배 압축 달성, 메모리 반도체 시장 직격

Google이 ICLR 2026에서 발표한 TurboQuant 양자화 기술은 LLM의 KV-Cache를 채널당 3.5비트로 압축하여 메모리 사용량을 최대 6배 감소시키면서도 모델 품질을 유지("absolute quality neutrality")하는 데 성공했다. 이 결과로 Micron 등 AI 메모리 공급업체 주가가 즉각 하락했다. 🔍 왜 주목해야 하나 LLM 추론 비용의 핵심 병목은…

AI
모델
2026년 3월 28일

Mistral Small 4 (22B, Apache 2.0): 자신보다 3~5배 큰 클로즈드 모델 추론 성능 압도

Mistral AI가 220억 파라미터 규모의 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 추론 및 지시 수행 벤치마크에서 파라미터 수가 3~5배 많은 클로즈드 모델 여러 개를 상회하는 성능을 보였다. 🔍 왜 주목해야 하나 "규모의 법칙(scaling law)"에 대한 기존 믿음이 흔들리고 있다. 22B 모델이 100B+ 규모 클로즈드 모델을 이기는 패턴이…

AI
모델
2026년 3월 28일

Yann LeCun의 AMI Labs, 유럽 최대 시드 $10.3억 조달 — JEPA 월드모델로 Transformer 패러다임에 정면 도전

Meta AI 수석 과학자 Yann LeCun이 설립한 AMI Labs가 유럽 역사상 최대 시드 라운드인 $10.3억을 조달했다. Bezos, Nvidia, Samsung, Temasek이 참여했으며, 목표는 JEPA(Joint Embedding Predictive Architecture) 기반의 월드모델(world model)을 구축하는 것이다. 🔍 왜 주목해야 하나 LeCun은 수년간…

AI
모델
2026년 3월 27일

Google TurboQuant — LLM KV 캐시 6배 압축, 정확도 손실 제로 달성 (ICLR 2026)

Google이 LLM의 KV 캐시를 기존 16비트에서 3비트로 압축해 메모리 사용량을 최소 6배 줄이면서도 정확도 손실이 없는 알고리즘 TurboQuant를 공개했다. ICLR 2026에서 정식 발표 예정이며, H100 GPU에서 4비트 적용 시 32비트 대비 최대 8배 추론 성능 향상이 확인됐다. 🔍 왜 주목해야 하나 KV 캐시는 긴 컨텍스트 처리 시 GPU 메모리의 가장 큰 병목…

트렌드
AI
2026년 3월 27일

Mistral Small 4 출시 — 119B MoE, 친지드 추론+비전 통합, Apache 2.0 오픈소스

Mistral AI가 3월 17일 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 119B 파라미터 MoE 구조로 추론 시 약 22B만 활성화되며, 256K 컨텍스트 윈도우와 멀티모달(비전) 기능을 단일 모델에 통합했다. 전작 Small 3 대비 엔드투엔드 완료 시간 40% 단축, 처리량 3배 향상을 달성했다. 🔍 왜 주목해야 하나 LiveCodeBench에서…

오픈소스
무료
2026년 3월 27일

NVIDIA Nemotron 3 Super 공개 — 120B 하이브리드 MoE 오픈 에이전틱 AI 모델 Apache 2.0

NVIDIA가 GTC 2026에서 120B 전체 파라미터, 12B 활성 파라미터의 하이브리드 Mamba-Transformer MoE 아키텍처 기반 오픈 웨이트 모델 Nemotron 3 Super를 Apache 2.0으로 공개했다. 소프트웨어 개발과 사이버보안 트리아지 등 복잡한 멀티에이전트 태스크를 타겟으로 하며, 10조 토큰 규모의 학습 데이터도 함께 공개됐다. 🔍 왜 주목해야 하나…

오픈소스
AI
2026년 3월 27일

ARC-AGI-3 출시 — 프론티어 모델 전부 1% 미만, AGI와의 간극 재확인

ARC Prize가 3월 25일 ARC-AGI-3을 공식 출시했다. 텍스트 지시 없이 낯선 환경을 탐색하며 목표를 스스로 설정해야 하는 인터랙티브 추론 과제로 구성되며, 인간은 100% 해결하는 반면 GPT-5.4(0.26%), Claude Opus 4.6(0.25%), Gemini 3.1 Pro(0.37%), Grok-4.20(0.00%) 등 최상위 프론티어 모델은 모두 1% 미만을…

트렌드
AI
2026년 3월 27일

Google TurboQuant, LLM KV 캐시 6배 압축 — 정확도 손실 0%

Google Research가 LLM의 KV(Key-Value) 캐시를 3비트로 압축해 메모리를 6배 절감하면서도 정확도 손실이 전혀 없는 알고리즘 TurboQuant를 공개했다. Nvidia H100 기준 Attention 연산 속도 최대 8배 향상을 기록하며 ICLR 2026에 채택됐다. 🔍 왜 주목해야 하나 LLM 추론의 병목은 항상 KV 캐시 메모리였다. 모델 파라미터가 아닌…

AI
트렌드
2026년 3월 27일

Mistral Small 4 출시 — 119B MoE, 추론·비전·코딩 통합 오픈소스 모델 (Apache 2.0)

Mistral AI가 2026년 3월 16일, 119B 파라미터 Mixture-of-Experts 아키텍처의 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 토큰당 활성 파라미터는 6B으로, 기존 Magistral(추론), Pixtral(비전), Devstral(에이전트 코딩) 세 모델의 기능을 하나로 통합했다. 🔍 왜 주목해야 하나 '하나의 오픈소스 모델로 세…

AI
오픈소스
2026년 3월 26일

Alibaba Qwen 3.5 Small: 9B 모델이 GPT-oss-120B를 GPQA Diamond에서 추월

Alibaba가 0.8B, 2B, 4B, 9B 네 가지 크기의 Qwen 3.5 Small 시리즈를 Apache 2.0 라이선스로 공개했다. 텍스트, 이미지, 비디오를 네이티브 멀티모달로 처리하며, 9B 모델이 GPQA Diamond 벤치마크에서 81.7점을 기록해 GPT-oss-120B(71.5점)를 상회했다. 🔍 왜 주목해야 하나 파라미터 규모가 13배 이상 차이 나는 모델을 GPQA…

AI
오픈소스
2026년 3월 26일

Google TurboQuant: LLM KV 캐시 6배 압축, 정확도 손실 제로 달성

Google 리서치팀이 LLM의 KV(Key-Value) 캐시를 6배 압축하면서도 정확도 손실이 전혀 없는 새로운 양자화 알고리즘 TurboQuant를 공개했다. NVIDIA H100 GPU 기준 어텐션 연산 속도를 최대 8배 향상시키며, 재학습이나 파인튜닝 없이 즉시 적용 가능하다. 🔍 왜 주목해야 하나 LLM 서빙의 핵심 병목은 GPU 메모리 대역폭인데, TurboQuant는 KV…

AI
모델
2026년 3월 26일

OpenAI, GPT-oss-120B/20B 오픈 웨이트 모델 Apache 2.0으로 공개

OpenAI가 GPT-oss-120B(MoE, 활성 파라미터 5.1B)와 GPT-oss-20B 두 모델을 Apache 2.0 라이선스로 Hugging Face에 공개했다. GPT-oss-120B는 단일 80GB GPU(H100, MI300X)에서 실행 가능하며, 핵심 추론 벤치마크에서 o4-mini에 근접하는 성능을 기록한다. 🔍 왜 주목해야 하나 Meta의 Llama 시리즈가 오픈…

AI
오픈소스
2026년 3월 10일

LLMs work best when the user defines their acceptance criteria first

데이터베이스에서 실행할 수 있는 가장 간단한 테스트 중 하나는 다음과 같습니다.

트렌드
AI
2026년 3월 9일

The L in "LLM" Stands for Lying

AI 사용의 불가피성에 대한 질문

트렌드
AI
2026년 3월 6일

GPT-5.4

GPT-5.4 소식의 핵심을 빠르게 정리하면, AI 모델 흐름에서 다음 변화를 미리 읽게 해주는 이슈입니다. 이 글에서는 사실 관계와 맥락, 그리고 실무자가 바로 참고할 포인트를 뉴스레터 톤으로 전달합니다.

트렌드
AI
2026년 3월 4일

How do I cancel my ChatGPT subscription?

How do I cancel my ChatGPT subscription? 소식의 핵심을 빠르게 정리하면, AI 모델 흐름에서 다음 변화를 미리 읽게 해주는 이슈입니다. 이 글에서는 사실 관계와 맥락, 그리고 실무자가 바로 참고할 포인트를 뉴스레터 톤으로 전달합니다.

트렌드
AI
2026년 3월 1일

OpenAI agrees with Dept. of War to deploy models in their classified network

소식의 핵심을 빠르게 정리하면, AI 모델 흐름에서 다음 변화를 미리 읽게 해주는 이슈입니다. 이 글에서는 사실 관계와 맥락, 그리고 실무자가 바로 참고할 포인트를 뉴스레터 톤으로 전달합니다.

트렌드
AI
2026년 2월 27일

Google API keys weren't secrets, but then Gemini changed the rules

Google은 개발자들에게 Google API 키(예: 지도, Firebase 등에 사용되는 키)가 비밀이 아니라는 사실을 알리는 데 10년 넘게 시간을 보냈습니다. 그러나 그것은 더 이상 사실이 아닙니다.

트렌드
AI
2026년 2월 25일

“Car Wash” test with 53 models

신뢰할 수 있는 에이전트를 위한 개발자 플랫폼

트렌드
AI
2026년 2월 23일

Gemini 3.1 Pro

3.1 Pro is designed for tasks where a simple answer isn’t enough. (카테고리: AI 모델, HN 961점·댓글 910)

트렌드
AI
2026년 2월 23일

Claude Sonnet 4.6

Claude Sonnet 4.6 is a full upgrade of the model’s skills across coding, computer use, long-reasoning, agent planning, knowledge work, and design. (카테고리: AI 모델, HN 1345점·댓글 1223)

트렌드
AI
2026년 2월 23일

Gemini 3 Deep Think

We’re releasing a major upgrade to Gemini 3 Deep Think, our specialized reasoning mode. (카테고리: AI 모델, HN 1080점·댓글 693)

트렌드
AI