AI·테크

구글 딥마인드 Gemma 4 공개, 오픈소스로 프론티어 멀티모달 달성

31B 모델 LMArena 1,452점·26B MoE 1,441점…아파치 2.0 완전 공개로 온디바이스 AI 판도 흔든다

유재민··6분 읽기·
Welcome Gemma 4: Frontier multimodal intelligence on device
요약
  • 구글 딥마인드가 Gemma 4를 출시, 31B 덴스 모델 LMArena 1,452점·26B MoE 1,441점 달성.
  • 이미지·텍스트·오디오 멀티모달 지원에 Apache 2.0 완전 오픈소스로 온디바이스 배포까지 가능.
  • PLE·공유 KV 캐시·이중 RoPE 등 신규 아키텍처로 메모리 효율과 긴 컨텍스트 처리 동시 향상.

구글 딥마인드의 온디바이스 멀티모달 혁신

구글 딥마인드(Google DeepMind)가 차세대 오픈소스 멀티모달 모델 패밀리 Gemma 4를 허깅 페이스(Hugging Face)를 통해 공식 출시했다. 아파치 2.0(Apache 2.0) 라이선스로 완전 공개된 이 모델은 이미지·텍스트·오디오 입력을 모두 지원한다. 31B 덴스(dense) 모델의 LMArena 점수(텍스트 전용)는 1,452점, 26B 혼합 전문가(MoE, Mixture of Experts) 모델은 단 40억 개의 활성 파라미터만으로 1,441점을 기록했다. transformers, llama.cpp, MLX, WebGPU, Rust 등 주요 추론 엔진을 전방위 지원하며 커뮤니티 호환성을 극대화했다.

구글 딥마인드 Gemma 4 공개, 오픈소스로 프론티어 멀티모달 달성
구글 딥마인드 Gemma 4 공개, 오픈소스로 프론티어 멀티모달 달성

왜 지금 Gemma 4인가

Gemma 4는 단순한 성능 업그레이드가 아니다. 오픈소스 AI 생태계에서 프론티어(frontier) 수준의 멀티모달 인텔리전스를 온디바이스(on-device)로 구현한다는 점에서 산업적 의미가 크다.

기존 오픈소스 멀티모달 모델들이 이미지-텍스트 입력에 머물렀던 반면, Gemma 4 소형 변형(E2B, E4B)은 오디오까지 지원한다. 엣지 디바이스(edge device)에서 실시간 음성 인식과 텍스트 생성을 동시에 처리할 수 있음을 의미한다.

가변 화면 비율(variable aspect ratio) 지원과 5단계 이미지 토큰 수 조절(70·140·280·560·1,120)은 속도·메모리·품질 간 트레이드오프(trade-off)를 사용자가 직접 제어할 수 있게 한다. 모바일 환경부터 서버 환경까지 동일한 모델 패밀리를 유연하게 활용할 수 있다는 뜻이다.

허깅 페이스 측은 "사전 출시 체크포인트 테스트에서 파인튜닝(fine-tuning) 예시를 찾기 어려울 정도로 기본 성능이 우수했다"고 밝혔다. 이는 모델 자체의 내재적 품질이 프론티어 수준임을 시사한다.

이전 버전과 무엇이 달라졌나

항목Gemma 3Gemma 3nGemma 4변화
멀티모달 지원이미지+텍스트이미지+텍스트+오디오이미지+텍스트+오디오+비디오비디오 추가
화면 비율고정고정가변유연성 향상
이미지 토큰 조절단일단일5단계 조절성능-효율 균형
KV 캐시표준표준공유 KV 캐시메모리 효율 향상
임베딩 구조단일 임베딩PLE 도입PLE 확장레이어별 잔차 신호
LMArena 점수1,452 (31B) / 1,441 (26B MoE)프론티어 수준 달성
라이선스Apache 2.0Apache 2.0Apache 2.0유지

핵심 아키텍처 혁신 3가지

레이어별 임베딩(PLE, Per-Layer Embeddings): 기존 트랜스포머(transformer)는 각 토큰에 단일 임베딩 벡터만 제공한다. PLE는 두 번째 임베딩 테이블을 추가해 각 디코더 레이어에 소규모 잔차(residual) 신호를 주입한다. 레이어마다 컨텍스트 의존적 특징을 더 정밀하게 포착할 수 있다.

공유 KV 캐시(Shared KV Cache): 모델의 마지막 N개 레이어가 이전 레이어의 키-값(key-value) 상태를 재사용해 중복 KV 프로젝션을 제거한다. 메모리 사용량 감소와 추론 속도 향상이 동시에 가능하다.

이중 RoPE 구성(Dual RoPE): 슬라이딩 윈도우 레이어에는 표준 RoPE를, 글로벌 어텐션 레이어에는 가지치기된(pruned) RoPE를 적용해 긴 컨텍스트(long context)를 효율적으로 처리한다. 소형 덴스 모델은 512토큰, 대형 모델은 1,024토큰 슬라이딩 윈도우를 사용한다.

구글 딥마인드 Gemma 4 공개, 오픈소스로 프론티어 멀티모달 달성
구글 딥마인드 Gemma 4 공개, 오픈소스로 프론티어 멀티모달 달성

Gemma의 여정: 구글의 오픈소스 AI 전략 (Historical Thread)

구글이 오픈소스 AI 모델 경쟁에 본격 참여한 것은 비교적 최근이다. 2023년 챗GPT(ChatGPT)의 폭발적 성장 이후, 메타(Meta)가 라마(LLaMA) 시리즈를, 미스트랄(Mistral)이 Mistral 7B를 오픈소스로 공개하며 상용 모델 대비 오픈소스의 경쟁력이 본격적으로 부각됐다.

구글 딥마인드는 2024년 초 Gemma 1을 출시하며 오픈소스 진영에 합류했다. Gemma 2에서는 파라미터 대비 성능 효율을 높여 소형 모델 시장을 공략했고, Gemma 3에서는 이미지-텍스트 멀티모달 기능을 추가했다. Gemma 3n은 온디바이스 최적화에 집중하며 PLE와 오디오 지원을 처음 도입했다.

Gemma 4는 이 모든 혁신을 하나의 패밀리로 통합하며 "오픈소스 모델로도 프론티어 성능을 달성할 수 있다"는 명제를 실증하고 있다. TRL, Unsloth Studio, Vertex AI 파인튜닝 지원까지 더해 생태계 완결성을 높였다.

앞으로 어떻게 될까 [전문가 분석]

Gemma 4의 출시는 오픈소스 AI 경쟁 지형을 재편할 가능성이 높다.

온디바이스 AI의 주류화: E2B·E4B 소형 모델이 스마트폰과 엣지 디바이스에서 오디오까지 처리할 수 있게 되면서, 클라우드 API 의존도를 낮추는 프라이버시 중심 애플리케이션이 빠르게 확산될 가능성이 높다.

비용 효율적 기업 배포의 새 기준: 26B MoE 모델이 4B 활성 파라미터만으로 LMArena 1,441점을 기록했다는 사실은 추론 비용을 획기적으로 낮출 수 있음을 시사한다. 유사 성능의 상용 API 대비 총소유비용(TCO) 절감 효과가 커 중소 스타트업의 Gemma 4 채택이 가속화될 가능성이 높다.

멀티모달 표준 경쟁 심화: 가변 화면 비율과 5단계 이미지 토큰 조절이라는 혁신은 경쟁사들도 유사 기능을 도입하게 만들 가능성이 높다. GPT-4o, 클로드(Claude) 등 주요 모델의 다음 업데이트에서 이 기능이 표준화될 수 있다.

Apache 2.0의 전략적 파급력: 상업적 이용이 가능한 완전 개방 라이선스는 Gemma 4를 기업 제품에 직접 내장할 수 있게 한다. 이는 구글 클라우드 생태계와의 연결고리를 강화하는 동시에, 오픈소스 AI 커뮤니티에서 구글의 영향력을 확대하는 이중 효과를 노린 전략으로 해석된다.

오픈소스 AI가 프론티어 모델을 따라잡는 속도는 2024년 이후 급격히 빨라졌다. Gemma 4는 그 흐름에서 중요한 이정표가 될 것으로 보인다.

공유

댓글 (39)

판교의아메리카노방금 전

구글 사례가 좋은 선례가 되기를 바랍니다.

성수의별방금 전

기사 잘 읽었습니다.

활발한러너방금 전

이런 뉴스가 더 많았으면 좋겠습니다. Gemma 소식을 주변에도 공유했습니다.

가을의분석가방금 전

gemma-4의 성공 비결이 궁금합니다. 앞으로가 더 기대됩니다.

홍대의사색가5분 전

아침에 읽기 딱 좋은 분량이에요.

인천의시민5분 전

구글이 업계 전체에 좋은 자극이 될 것 같습니다. 관련 분야 전체에 활기를 줄 것 같습니다.

맑은날여우5분 전

이런 뉴스가 더 많았으면 좋겠습니다. 딥마인드 같은 소식이 더 자주 들렸으면 좋겠습니다. 관련 분야 전체에 활기를 줄 것 같습니다.

별빛의여우5분 전

Gemma 성과가 세계적으로 인정받는 것 같습니다.

도서관의첼로12분 전

정말 대단하네요! gemma-4 덕분에 해당 분야에 관심이 더 생겼습니다. 후속 소식도 기대하겠습니다!

재빠른독자12분 전

놀라운 성과입니다. LLM 관련자분들의 오랜 노력이 결실을 맺었네요. 좋은 보도 감사합니다.

진지한기록자12분 전

이런 뉴스가 더 많았으면 좋겠습니다. 구글에 대해 더 자세히 알고 싶어졌습니다. 심층 분석 기사도 부탁드려요.

산속의피아노12분 전

딥마인드 사례가 좋은 선례가 되기를 바랍니다. 좋은 보도 감사합니다.

냉철한바람30분 전

이런 뉴스가 더 많았으면 좋겠습니다. Gemma에 대해 더 자세히 알고 싶어졌습니다. 후속 소식도 기대하겠습니다!

성수의여행자30분 전

기대가 됩니다! gemma-4 같은 소식이 더 자주 들렸으면 좋겠습니다.

서울의리더30분 전

다양한 주제를 다뤄주셔서 좋습니다.

용감한여행자30분 전

구글의 글로벌 반응도 궁금합니다.

산속의돌고래1시간 전

딥마인드 소식을 주변에도 공유했습니다.

열정적인연구자1시간 전

Gemma 관련자분들의 오랜 노력이 결실을 맺었네요.

바닷가의달1시간 전

기분 좋은 뉴스입니다. gemma-4 같은 소식이 더 자주 들렸으면 좋겠습니다.

제주의기록자1시간 전

LLM 덕분에 해당 분야에 관심이 더 생겼습니다. 계속 응원하겠습니다!

새벽의사색가2시간 전

반가운 소식입니다. 구글이 다음 단계로 발전하면 어떤 변화가 올지 기대됩니다.

봄날의달2시간 전

딥마인드에 참여한 모든 분들께 박수를 보냅니다.

유쾌한녹차2시간 전

반가운 소식입니다. Gemma 같은 소식이 더 자주 들렸으면 좋겠습니다.

꼼꼼한드리머2시간 전

gemma-4이 다음 단계로 발전하면 어떤 변화가 올지 기대됩니다. 관련 분야 전체에 활기를 줄 것 같습니다.

홍대의워커3시간 전

LLM에 참여한 모든 분들께 박수를 보냅니다.

카페의녹차3시간 전

축하드립니다! 구글의 과정이 쉽지 않았을 텐데 결과가 인상적입니다.

새벽의해3시간 전

잘 보고 있습니다.

느긋한달3시간 전

놀라운 성과입니다. Gemma 같은 소식이 더 자주 들렸으면 좋겠습니다. 심층 분석 기사도 부탁드려요.

성수의사색가5시간 전

오늘 하루가 밝아졌습니다. gemma-4의 성공 비결이 궁금합니다. 이런 소식이 힘이 됩니다.

재빠른에스프레소5시간 전

희망적인 소식이네요. LLM 같은 소식이 더 자주 들렸으면 좋겠습니다.

꼼꼼한아메리카노5시간 전

정말 대단하네요! 구글이 업계 전체에 좋은 자극이 될 것 같습니다. 해외에서는 어떻게 보는지 궁금합니다.

성수의펭귄5시간 전

자랑스럽습니다! 딥마인드이 사회에 미칠 긍정적 영향이 기대됩니다. 다들 좋아하네요.

인천의에스프레소8시간 전

Gemma의 성공 비결이 궁금합니다.

열정적인바람8시간 전

gemma-4에 대해 더 자세히 알고 싶어졌습니다. 후속 소식도 기대하겠습니다!

카페의독자8시간 전

LLM의 성공 비결이 궁금합니다.

다정한러너8시간 전

정말 대단하네요! 구글 덕분에 해당 분야에 관심이 더 생겼습니다. 계속 응원하겠습니다!

활발한바람

딥마인드 사례가 좋은 선례가 되기를 바랍니다.

여름의커피

Gemma의 글로벌 반응도 궁금합니다.

재빠른비평가

gemma-4 소식을 주변에도 공유했습니다. 심층 분석 기사도 부탁드려요.

이 시리즈의 다른 기사

AI·테크 더보기

최신 뉴스