PickleeAI와 개발에 대한 짧은 노트
홈아티클아카이브검색

끝까지 읽는 글

AI와 개발에 관한 변화 중에서 블로그처럼 오래 읽을 수 있는 글만 골라 정리합니다.

© 2026 Picklee

RSSSitemap

글

2026년 5월 13일수정 2026년 5월 13일원문

Your car with Google built-in is about to get smarter, thanks to Gemini — Gemini 확장이 앱을 넘어 내장형 OS와 EV UX로 들어간다

Google은 2026년 4월 30일 공식 블로그에서 Gemini가 cars with Google built-in에 롤아웃되며 Google Assistant를 대체한다고 밝혔다. 자연어 기반 내비게이션, 메시지 요약/응답, 차량 설명서 기반 질의응답, EV 배터리·충전 맥락 질의, Gemini Live 기반 브레인스토밍까지 포함되며, 신규 차량뿐 아니라 기존 차량에도 software…

AI
Gemini
트렌드

배경 및 맥락

스마트폰에서 시작된 generative assistant 경쟁은 이제 더 많은 디바이스 표면으로 확장되고 있다. 하지만 차 안 환경은 검색창이나 챗 UI만으로 해결되지 않는다. 주행 중 제약, 안전성, 차량 상태, 메시징, 지도, 음성 인터페이스, 계정 연결까지 동시에 다뤄야 하므로, 자동차는 LLM이 실제 운영체제 계층으로 들어갈 때의 난도가 높은 시험장에 가깝다.

Google의 이번 발표는 그 시험장이 이미 시작됐음을 보여준다. Gemini를 단순 companion app이 아니라 cars with Google built-in의 기본 assistant로 밀어 넣으면서, 기존 차량에도 소프트웨어 업데이트로 배포하겠다고 명시했다.


핵심 내용

공식 글에 따르면 Gemini는 Google Assistant를 대체하며 영어권 미국 사용자부터 순차 롤아웃된다. 기능은 단순 Q&A를 넘는다. 지도 문맥을 활용한 경유지 탐색과 실시간 교통 해석, 문자 요약과 응답 초안, 음악 요청 같은 일반 assistant 기능뿐 아니라, 제조사가 제공한 owner’s manual을 기반으로 차량별 기능 설명까지 제공한다.

특히 EV 사용 맥락이 중요하다. 사용자는 현재 배터리 상태, 도착 시 배터리 잔량, 인근 충전소, 충전 중 들를 카페 같은 질문을 자연어로 묻고 Google Maps 정보와 결합된 답을 받을 수 있다. 여기에 Gemini Live 기반의 자유 대화, 앱 연동 확대, 기존 차량 소프트웨어 업데이트 배포 계획이 결합되면서 Gemini는 앱 기능이 아니라 내장형 차량 UX의 일부가 된다.


경쟁 구도 / 비교

기존 차량 음성 비서는 명령어 기반 UX에 가까웠고, 기능 범위도 내비게이션이나 호출 수준에 머무는 경우가 많았다. 이번 발표는 LLM이 차량 기능, 지도, 메시징, EV 상태, 설명서 grounding을 하나의 자연어 인터페이스로 묶으려는 시도다. 이는 자동차 UX 경쟁이 더 좋은 음성 인식에서 더 깊은 시스템 통합으로 이동하고 있음을 뜻한다.

Apple, OEM 자체 assistant, 3rd-party mobility AI 모두 같은 문제를 풀고 있지만, Google은 Android/Maps/Gemini/vehicle OS를 수직 통합할 수 있다는 점이 강점이다. 특히 기존 차량까지 업데이트로 확장한다는 점은 단순 신차 기능보다 훨씬 큰 배포 모수와 생태계 영향력을 의미한다.


의미

산업적으로는 생성형 AI가 모바일 앱 feature를 넘어 내장형 플랫폼과 EV 사용자 경험의 기본 계층으로 이동하고 있다. 기술적으로는 grounding source가 웹 문서에서 차량 설명서와 센서 문맥으로 넓어지고 있으며, safety-aware multimodal interface 설계가 점점 중요해진다.

실무적으로는 자동차·모바일·플랫폼 팀 모두 준비가 필요하다. 음성 UX를 개선하는 수준이 아니라, 차량 제어 범위, 계정 인증, 문서 grounding 품질, OTA rollout, 잘못된 조작 요청에 대한 안전 경계까지 포함한 agent 설계를 해야 한다. 이 영역은 곧 consumer AI의 다음 경쟁 무대가 될 가능성이 높다.

더 읽기

같이 읽어볼 만한 글

전체 글 보기
2026년 5월 6일

Gemini API File Search is now multimodal — RAG 경쟁이 text retrieval에서 multimodal evidence layer로 이동

Google은 2026년 5월 5일 Gemini API File Search에 multimodal support, custom metadata, page-level citations를 추가했다. 이제 텍스트와 이미지를 함께 색인·검색할 수 있고, metadata filter로 검색 범위를 줄이며, 응답마다 원문 페이지 단위 citation을 붙여 verifiable RAG를 구성할 수…

2026년 4월 30일

Prepay for the Gemini API to get more control over your spend — 에이전트 경제성이 기능보다 먼저 제품 표면으로 올라오다

Google은 2026년 4월 15일 Google AI Studio용 Gemini API Prepay Billing을 발표했다. 신규 Google Cloud Billing Account를 여는 미국 사용자부터 선불 크레딧 기반 결제를 쓸 수 있고, 자동 충전과 함께 남은 잔액을 기준으로 API 호출 비용을 관리하게 해 spend predictability를 높이겠다는 내용이다. 🔍 왜…

2026년 4월 12일

Gemma 4 공개 — Google이 open model 전략을 Apache 2.0과 on-device 배포로 다시 밀어붙이다

Google DeepMind는 2026년 4월 2일 Gemma 4를 공개했다. 새 라인업은 E2B, E4B, 26B MoE, 31B Dense 네 가지 크기로 구성되며 Apache 2.0 라이선스로 배포되고, 31B 모델은 Arena 기준 당시 세계 오픈 모델 3위, 26B 모델은 6위라고 밝혔다. 🔍 왜 주목해야 하나 이번 발표의 본질은 Google이 Gemini 같은 폐쇄형 모델과…

2026년 4월 5일

Google Gemma 4 공개 — Apache 2.0·256K 컨텍스트·멀티모달, 오픈 에이전틱 모델의 새 기준

Google이 4월 2~3일 Gemma 4를 Apache 2.0 라이선스로 공개했다. Effective 2B·4B·26B MoE·31B Dense 네 가지 크기로 제공되며, 256K 토큰 컨텍스트, 비전·오디오 네이티브 멀티모달, 140개 이상 언어를 지원한다. 🔍 왜 주목해야 하나 Gemma 4는 Gemini 3와 동일한 연구 기반으로 제작됐으면서 상업 제한 없는 Apache 2.0으로…