구글 딥마인드 Gemma 4 공개, 오픈소스로 프론티어 멀티모달 달성
31B 모델 LMArena 1,452점·26B MoE 1,441점…아파치 2.0 완전 공개로 온디바이스 AI 판도 흔든다

- •구글 딥마인드가 Gemma 4를 출시, 31B 덴스 모델 LMArena 1,452점·26B MoE 1,441점 달성.
- •이미지·텍스트·오디오 멀티모달 지원에 Apache 2.0 완전 오픈소스로 온디바이스 배포까지 가능.
- •PLE·공유 KV 캐시·이중 RoPE 등 신규 아키텍처로 메모리 효율과 긴 컨텍스트 처리 동시 향상.
구글 딥마인드의 온디바이스 멀티모달 혁신
구글 딥마인드(Google DeepMind)가 차세대 오픈소스 멀티모달 모델 패밀리 Gemma 4를 허깅 페이스(Hugging Face)를 통해 공식 출시했다. 아파치 2.0(Apache 2.0) 라이선스로 완전 공개된 이 모델은 이미지·텍스트·오디오 입력을 모두 지원한다. 31B 덴스(dense) 모델의 LMArena 점수(텍스트 전용)는 1,452점, 26B 혼합 전문가(MoE, Mixture of Experts) 모델은 단 40억 개의 활성 파라미터만으로 1,441점을 기록했다. transformers, llama.cpp, MLX, WebGPU, Rust 등 주요 추론 엔진을 전방위 지원하며 커뮤니티 호환성을 극대화했다.

왜 지금 Gemma 4인가
Gemma 4는 단순한 성능 업그레이드가 아니다. 오픈소스 AI 생태계에서 프론티어(frontier) 수준의 멀티모달 인텔리전스를 온디바이스(on-device)로 구현한다는 점에서 산업적 의미가 크다.
기존 오픈소스 멀티모달 모델들이 이미지-텍스트 입력에 머물렀던 반면, Gemma 4 소형 변형(E2B, E4B)은 오디오까지 지원한다. 엣지 디바이스(edge device)에서 실시간 음성 인식과 텍스트 생성을 동시에 처리할 수 있음을 의미한다.
가변 화면 비율(variable aspect ratio) 지원과 5단계 이미지 토큰 수 조절(70·140·280·560·1,120)은 속도·메모리·품질 간 트레이드오프(trade-off)를 사용자가 직접 제어할 수 있게 한다. 모바일 환경부터 서버 환경까지 동일한 모델 패밀리를 유연하게 활용할 수 있다는 뜻이다.
허깅 페이스 측은 "사전 출시 체크포인트 테스트에서 파인튜닝(fine-tuning) 예시를 찾기 어려울 정도로 기본 성능이 우수했다"고 밝혔다. 이는 모델 자체의 내재적 품질이 프론티어 수준임을 시사한다.
이전 버전과 무엇이 달라졌나
| 항목 | Gemma 3 | Gemma 3n | Gemma 4 | 변화 |
|---|---|---|---|---|
| 멀티모달 지원 | 이미지+텍스트 | 이미지+텍스트+오디오 | 이미지+텍스트+오디오+비디오 | 비디오 추가 |
| 화면 비율 | 고정 | 고정 | 가변 | 유연성 향상 |
| 이미지 토큰 조절 | 단일 | 단일 | 5단계 조절 | 성능-효율 균형 |
| KV 캐시 | 표준 | 표준 | 공유 KV 캐시 | 메모리 효율 향상 |
| 임베딩 구조 | 단일 임베딩 | PLE 도입 | PLE 확장 | 레이어별 잔차 신호 |
| LMArena 점수 | — | — | 1,452 (31B) / 1,441 (26B MoE) | 프론티어 수준 달성 |
| 라이선스 | Apache 2.0 | Apache 2.0 | Apache 2.0 | 유지 |
핵심 아키텍처 혁신 3가지
레이어별 임베딩(PLE, Per-Layer Embeddings): 기존 트랜스포머(transformer)는 각 토큰에 단일 임베딩 벡터만 제공한다. PLE는 두 번째 임베딩 테이블을 추가해 각 디코더 레이어에 소규모 잔차(residual) 신호를 주입한다. 레이어마다 컨텍스트 의존적 특징을 더 정밀하게 포착할 수 있다.
공유 KV 캐시(Shared KV Cache): 모델의 마지막 N개 레이어가 이전 레이어의 키-값(key-value) 상태를 재사용해 중복 KV 프로젝션을 제거한다. 메모리 사용량 감소와 추론 속도 향상이 동시에 가능하다.
이중 RoPE 구성(Dual RoPE): 슬라이딩 윈도우 레이어에는 표준 RoPE를, 글로벌 어텐션 레이어에는 가지치기된(pruned) RoPE를 적용해 긴 컨텍스트(long context)를 효율적으로 처리한다. 소형 덴스 모델은 512토큰, 대형 모델은 1,024토큰 슬라이딩 윈도우를 사용한다.

Gemma의 여정: 구글의 오픈소스 AI 전략 (Historical Thread)
구글이 오픈소스 AI 모델 경쟁에 본격 참여한 것은 비교적 최근이다. 2023년 챗GPT(ChatGPT)의 폭발적 성장 이후, 메타(Meta)가 라마(LLaMA) 시리즈를, 미스트랄(Mistral)이 Mistral 7B를 오픈소스로 공개하며 상용 모델 대비 오픈소스의 경쟁력이 본격적으로 부각됐다.
구글 딥마인드는 2024년 초 Gemma 1을 출시하며 오픈소스 진영에 합류했다. Gemma 2에서는 파라미터 대비 성능 효율을 높여 소형 모델 시장을 공략했고, Gemma 3에서는 이미지-텍스트 멀티모달 기능을 추가했다. Gemma 3n은 온디바이스 최적화에 집중하며 PLE와 오디오 지원을 처음 도입했다.
Gemma 4는 이 모든 혁신을 하나의 패밀리로 통합하며 "오픈소스 모델로도 프론티어 성능을 달성할 수 있다"는 명제를 실증하고 있다. TRL, Unsloth Studio, Vertex AI 파인튜닝 지원까지 더해 생태계 완결성을 높였다.
앞으로 어떻게 될까 [전문가 분석]
Gemma 4의 출시는 오픈소스 AI 경쟁 지형을 재편할 가능성이 높다.
온디바이스 AI의 주류화: E2B·E4B 소형 모델이 스마트폰과 엣지 디바이스에서 오디오까지 처리할 수 있게 되면서, 클라우드 API 의존도를 낮추는 프라이버시 중심 애플리케이션이 빠르게 확산될 가능성이 높다.
비용 효율적 기업 배포의 새 기준: 26B MoE 모델이 4B 활성 파라미터만으로 LMArena 1,441점을 기록했다는 사실은 추론 비용을 획기적으로 낮출 수 있음을 시사한다. 유사 성능의 상용 API 대비 총소유비용(TCO) 절감 효과가 커 중소 스타트업의 Gemma 4 채택이 가속화될 가능성이 높다.
멀티모달 표준 경쟁 심화: 가변 화면 비율과 5단계 이미지 토큰 조절이라는 혁신은 경쟁사들도 유사 기능을 도입하게 만들 가능성이 높다. GPT-4o, 클로드(Claude) 등 주요 모델의 다음 업데이트에서 이 기능이 표준화될 수 있다.
Apache 2.0의 전략적 파급력: 상업적 이용이 가능한 완전 개방 라이선스는 Gemma 4를 기업 제품에 직접 내장할 수 있게 한다. 이는 구글 클라우드 생태계와의 연결고리를 강화하는 동시에, 오픈소스 AI 커뮤니티에서 구글의 영향력을 확대하는 이중 효과를 노린 전략으로 해석된다.
오픈소스 AI가 프론티어 모델을 따라잡는 속도는 2024년 이후 급격히 빨라졌다. Gemma 4는 그 흐름에서 중요한 이정표가 될 것으로 보인다.
댓글 (39)
구글 사례가 좋은 선례가 되기를 바랍니다.
기사 잘 읽었습니다.
이런 뉴스가 더 많았으면 좋겠습니다. Gemma 소식을 주변에도 공유했습니다.
gemma-4의 성공 비결이 궁금합니다. 앞으로가 더 기대됩니다.
아침에 읽기 딱 좋은 분량이에요.
구글이 업계 전체에 좋은 자극이 될 것 같습니다. 관련 분야 전체에 활기를 줄 것 같습니다.
이런 뉴스가 더 많았으면 좋겠습니다. 딥마인드 같은 소식이 더 자주 들렸으면 좋겠습니다. 관련 분야 전체에 활기를 줄 것 같습니다.
Gemma 성과가 세계적으로 인정받는 것 같습니다.
정말 대단하네요! gemma-4 덕분에 해당 분야에 관심이 더 생겼습니다. 후속 소식도 기대하겠습니다!
놀라운 성과입니다. LLM 관련자분들의 오랜 노력이 결실을 맺었네요. 좋은 보도 감사합니다.
이런 뉴스가 더 많았으면 좋겠습니다. 구글에 대해 더 자세히 알고 싶어졌습니다. 심층 분석 기사도 부탁드려요.
딥마인드 사례가 좋은 선례가 되기를 바랍니다. 좋은 보도 감사합니다.
이런 뉴스가 더 많았으면 좋겠습니다. Gemma에 대해 더 자세히 알고 싶어졌습니다. 후속 소식도 기대하겠습니다!
기대가 됩니다! gemma-4 같은 소식이 더 자주 들렸으면 좋겠습니다.
다양한 주제를 다뤄주셔서 좋습니다.
구글의 글로벌 반응도 궁금합니다.
딥마인드 소식을 주변에도 공유했습니다.
Gemma 관련자분들의 오랜 노력이 결실을 맺었네요.
기분 좋은 뉴스입니다. gemma-4 같은 소식이 더 자주 들렸으면 좋겠습니다.
LLM 덕분에 해당 분야에 관심이 더 생겼습니다. 계속 응원하겠습니다!
반가운 소식입니다. 구글이 다음 단계로 발전하면 어떤 변화가 올지 기대됩니다.
딥마인드에 참여한 모든 분들께 박수를 보냅니다.
반가운 소식입니다. Gemma 같은 소식이 더 자주 들렸으면 좋겠습니다.
gemma-4이 다음 단계로 발전하면 어떤 변화가 올지 기대됩니다. 관련 분야 전체에 활기를 줄 것 같습니다.
LLM에 참여한 모든 분들께 박수를 보냅니다.
축하드립니다! 구글의 과정이 쉽지 않았을 텐데 결과가 인상적입니다.
잘 보고 있습니다.
놀라운 성과입니다. Gemma 같은 소식이 더 자주 들렸으면 좋겠습니다. 심층 분석 기사도 부탁드려요.
오늘 하루가 밝아졌습니다. gemma-4의 성공 비결이 궁금합니다. 이런 소식이 힘이 됩니다.
희망적인 소식이네요. LLM 같은 소식이 더 자주 들렸으면 좋겠습니다.
정말 대단하네요! 구글이 업계 전체에 좋은 자극이 될 것 같습니다. 해외에서는 어떻게 보는지 궁금합니다.
자랑스럽습니다! 딥마인드이 사회에 미칠 긍정적 영향이 기대됩니다. 다들 좋아하네요.
Gemma의 성공 비결이 궁금합니다.
gemma-4에 대해 더 자세히 알고 싶어졌습니다. 후속 소식도 기대하겠습니다!
LLM의 성공 비결이 궁금합니다.
정말 대단하네요! 구글 덕분에 해당 분야에 관심이 더 생겼습니다. 계속 응원하겠습니다!
딥마인드 사례가 좋은 선례가 되기를 바랍니다.
Gemma의 글로벌 반응도 궁금합니다.
gemma-4 소식을 주변에도 공유했습니다. 심층 분석 기사도 부탁드려요.
이 시리즈의 다른 기사
AI·테크 더보기
최신 뉴스

ICIJ, 머크의 키트루다 가격 담합 의혹 대규모 탐사 보도
ICIJ가 머크의 키트루다 가격 전략과 특허 남용 의혹을 탐사 보도했다.

이스라엘-레바논 10일 휴전 발효…유엔 '협상 전기 되길'
이스라엘-레바논 10일 휴전이 4월 17일 자정 공식 발효됐다.

JWST, 성간 혜성 3I/ATLAS에서 메테인 최초 검출…외계 행성계 단서 포착
JWST가 성간 혜성 3I/ATLAS에서 메테인을 최초 직접 검출, 외계 행성계 내부 조성 단서 확보.

IMF, 7년 만에 베네수엘라와 관계 재개…49억 달러 동결 해제 기대
IMF가 2019년 이후 중단됐던 베네수엘라와의 공식 관계를 7년 만에 재개했다.

미국 정치만화가들이 포착한 이번 주 워싱턴
미국 전역 정치만화가들이 매주 정치 풍자로 시대를 기록한다.

IMF, 7년 만에 베네수엘라와 관계 재개…49억 달러 동결 해제 가능성
IMF가 7년 만에 베네수엘라와 공식 협력을 재개하기로 결정했다.

정글이 콘크리트를 삼킨 날, 런던 바비칸의 역설
사진가 알트라트, 런던 바비칸 보존원의 공간 역설을 연작으로 포착했다.

경상흑자 역대 최대인데 원화는 왜 약해지나
한국은행, 경상흑자에도 원화 약세 이어지는 구조적 원인 공식 분석.





