Google DeepMindがGemma 4を公開——オープンソースでフロンティア級マルチモーダルAIをオンデバイスへ
31Bモデルは LMArena 1,452点、26B MoEは4Bのアクティブパラメータのみで1,441点——Apache 2.0で完全商用利用可能

- •Google DeepMindがGemma 4を公開、31BデンスモデルがリMArena 1,452点、26B MoEが1,441点を達成。
- •Apache 2.0完全オープンソースで画像・テキスト・音声のマルチモーダルをサポートし、オンデバイス展開も可能。
- •PLE・共有KVキャッシュ・デュアルRoPEなど新アーキテクチャでメモリ効率と長コンテキスト処理を同時に向上。
Google DeepMindのオンデバイス・マルチモーダル革新
Google DeepMindが次世代オープンソース・マルチモーダルモデルファミリー Gemma 4 をHugging Faceを通じて正式公開した。Apache 2.0ライセンスで完全公開されたこのモデルは、画像・テキスト・音声の入力をすべてサポートする。31Bデンス(dense)モデルの推定LMArenaスコア(テキストのみ)は1,452点、26B混合エキスパート(MoE、Mixture of Experts)モデルはわずか40億のアクティブパラメータで1,441点を記録した。transformers、llama.cpp、MLX、WebGPU、Rustなど主要な推論エンジンを全面サポートし、コミュニティとの互換性を最大化した。
なぜ今Gemma 4なのか
Gemma 4は単なる性能アップグレードではない。オープンソースAIエコシステムにおいて、フロンティア(frontier)レベルのマルチモーダル・インテリジェンスをオンデバイス(on-device)で実現するという点に大きな意義がある。
従来のオープンソース・マルチモーダルモデルが画像-テキスト入力にとどまっていたのに対し、Gemma 4の小型バリアント(E2B、E4B)は音声もサポートする。エッジデバイス(edge device)でリアルタイム音声認識とテキスト生成を同時処理できることを意味する。
可変アスペクト比(variable aspect ratio)サポートと5段階の画像トークン数調整(70・140・280・560・1,120)により、速度・メモリ・品質のトレードオフをユーザーが直接制御できる。モバイル環境からサーバー環境まで、同一モデルファミリーを柔軟に活用できる。
Hugging Faceによると、「事前リリースのチェックポイントテストでは、ファインチューニング(fine-tuning)の例を見つけるのが困難なほどベース性能が優秀だった」という。
前バージョンから何が変わったか
| 項目 | Gemma 3 | Gemma 3n | Gemma 4 | 変化 |
|---|---|---|---|---|
| マルチモーダル | 画像+テキスト | 画像+テキスト+音声 | 画像+テキスト+音声+動画 | 動画追加 |
| アスペクト比 | 固定 | 固定 | 可変 | 柔軟性向上 |
| 画像トークン調整 | 単一 | 単一 | 5段階調整可能 | 性能-効率バランス |
| KVキャッシュ | 標準 | 標準 | 共有KVキャッシュ | メモリ効率向上 |
| 埋め込み構造 | 単一埋め込み | PLE導入 | PLE拡張 | レイヤーごとの残差信号 |
| LMArenaスコア | — | — | 1,452 (31B) / 1,441 (26B MoE) | フロンティアレベル達成 |
| ライセンス | Apache 2.0 | Apache 2.0 | Apache 2.0 | 維持 |
3つのコアアーキテクチャ革新
レイヤー別埋め込み(PLE、Per-Layer Embeddings): 標準トランスフォーマー(transformer)では各トークンは入力時に単一の埋め込みベクトルのみを持つ。PLEは第2の埋め込みテーブルを追加し、各デコーダーレイヤーに小規模な残差(residual)信号を注入する。レイヤーごとにコンテキスト依存の特徴をより精密に捉えられる。
共有KVキャッシュ(Shared KV Cache): モデルの最後のNレイヤーが前レイヤーのキー-バリュー(key-value)状態を再利用し、重複するKVプロジェクションを排除する。メモリ使用量の削減と推論速度の向上を同時に実現する。
デュアルRoPE構成(Dual RoPE): スライディングウィンドウレイヤーには標準RoPEを、グローバルアテンションレイヤーには枝刈りされた(pruned)RoPEを適用し、長いコンテキスト(long context)を効率的に処理する。小型デンスモデルは512トークン、大型モデルは1,024トークンのスライディングウィンドウを使用する。
Gemmaの歩み: Googleのオープンソース戦略
GoogleがオープンソースAIモデル競争に本格参入したのは比較的最近だ。2023年のChatGPTの爆発的成長を受け、MetaのLLaMAシリーズやMistralのオープンリリースがオープンソースモデルの競争力を実証した。
Google DeepMindは2024年初頭にGemma 1をリリースし、オープンソース陣営に加わった。Gemma 2ではパラミータ効率を向上させ小型モデル市場を攻略、Gemma 3では画像-テキストのマルチモーダル機能を追加、Gemma 3nはオンデバイス最適化に注力しPLEと音声サポートを初めて導入した。
Gemma 4はこれらすべての革新を1つのファミリーに統合し、「オープンソースモデルでもフロンティア性能を達成できる」という命題を実証している。TRL、Unsloth Studio、Vertex AIによるファインチューニングサポートも加わり、エコシステムの完結性を高めた。
今後どうなるか [専門家分析]
Gemma 4のリリースは、オープンソースAIの競争地形を再編する可能性が高い。
オンデバイスAIの主流化: E2B・E4Bの小型モデルがスマートフォンとエッジデバイスで音声処理まで担えるようになることで、クラウドAPI依存度を下げるプライバシー重視のAIアプリケーションが急速に普及する可能性が高い。
コスト効率的な企業展開の新基準: 26B MoEモデルが4Bのアクティブパラメータのみで1,441点を記録したことは、推論コストを劇的に下げられることを示唆する。類似性能の商用APIと比較した総所有コスト(TCO)の削減効果から、スタートアップによるGemma 4採用が加速する可能性が高い。
マルチモーダル標準競争の激化: 可変アスペクト比と5段階の画像トークン制御という革新は、競合他社も同様の機能を導入する可能性を高める。GPT-4o、Claude(クロード)などの主要モデルの次のアップデートでこれらの機能が標準化されうる。
Apache 2.0の戦略的意義: 完全商用ライセンスにより、Gemma 4を企業製品に直接組み込むことが可能となる。これはGoogleクラウドエコシステムとの連携を強化しながら、オープンソースAIコミュニティでのGoogleの影響力を拡大するという二重戦略として解釈される。
オープンソースAIがフロンティアモデルに追いつくスピードは2024年以降急激に加速している。Gemma 4はその流れにおける重要なマイルストーンとなる可能性が高い。
댓글 (37)
유익한 기사네요. Google 기사에서 언급된 사례가 흥미로웠습니다. 좋은 기사 감사합니다.
몰랐던 사실을 알게 됐습니다. gemma-4에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 주변에도 공유해야겠어요.
몰랐던 사실을 알게 됐습니다. LLM이 앞으로 어떻게 전개될지 주목해야겠습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
Google의 전문가 코멘트가 설득력 있었습니다.
잘 읽었습니다. gemma-4 관련 데이터가 인상적이었습니다.
잘 읽었습니다. LLM에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.
Google 관련 해외 동향도 궁금합니다.
흥미로운 주제입니다. gemma-4의 전문가 코멘트가 설득력 있었습니다.
몰랐던 사실을 알게 됐습니다. LLM이 일상에 어떤 영향을 줄지 생각해보게 됩니다.
다른 기사도 기대하겠습니다.
깔끔한 기사입니다. gemma-4 기사에서 언급된 사례가 흥미로웠습니다.
LLM에 대해 더 알고 싶어졌습니다. 다른 시각의 분석도 읽어보고 싶습니다.
좋은 정리입니다. Google 관련 통계가 의외였습니다.
gemma-4의 향후 전망이 궁금합니다. 나중에 다시 읽어볼 만합니다.
LLM 관련 해외 동향도 궁금합니다.
이런 시각도 있었군요. Google에 대해 처음 접하는 정보가 있었습니다.
gemma-4 관련 해외 동향도 궁금합니다.
잘 읽었습니다. LLM 관련 데이터가 인상적이었습니다.
읽기 좋은 기사입니다. Google 관련 해외 동향도 궁금합니다.
몰랐던 사실을 알게 됐습니다. gemma-4 주제로 시리즈 기사가 나오면 좋겠습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
LLM에 대해 처음 접하는 정보가 있었습니다.
흥미로운 주제입니다. Google에 대해 처음 접하는 정보가 있었습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
유익한 기사네요. gemma-4 관련 해외 동향도 궁금합니다. 다른 시각의 분석도 읽어보고 싶습니다.
흥미로운 주제입니다. LLM 관련 용어 설명이 친절해서 좋았습니다.
Google의 향후 전망이 궁금합니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
gemma-4에 대해 처음 접하는 정보가 있었습니다.
기사 퀄리티가 좋습니다.
좋은 정리입니다. Google 관련 데이터가 인상적이었습니다.
유익한 기사네요. gemma-4이 앞으로 어떻게 전개될지 주목해야겠습니다. 나중에 다시 읽어볼 만합니다.
LLM에 대해 더 알고 싶어졌습니다.
Google 관련 해외 동향도 궁금합니다. 후속 기사 부탁드립니다.
깔끔한 기사입니다. gemma-4 관련 해외 동향도 궁금합니다.
LLM의 전문가 코멘트가 설득력 있었습니다.
Google에 대해 처음 접하는 정보가 있었습니다. 나중에 다시 읽어볼 만합니다.
유익한 기사네요. gemma-4 주제로 시리즈 기사가 나오면 좋겠습니다.
LLM 기사에서 언급된 사례가 흥미로웠습니다. 주변에도 공유해야겠어요.
Google에 대해 처음 접하는 정보가 있었습니다. 전문가 의견도 더 듣고 싶습니다.
このシリーズの他の記事
AI・テックの記事をもっと見る
最新ニュース

ICIJ、メルクのキイトルーダ価格戦略と特許乱用疑惑を報道
ICIJがメルクのキイトルーダ価格戦略と特許乱用疑惑を大規模調査報道で明らかにした。

イスラエル・レバノン10日間停戦が発効、国連「交渉の糸口に」
イスラエルとレバノンの10日間停戦が4月17日深夜0時に発効した。

JWST, 성간 혜성 3I/ATLAS에서 메테인 최초 검출…외계 행성계 단서 포착
JWST가 성간 혜성 3I/ATLAS에서 메테인을 최초 직접 검출, 외계 행성계 내부 조성 단서 확보.

IMF, 7년 만에 베네수엘라와 관계 재개…49억 달러 동결 해제 기대
IMF가 2019년 이후 중단됐던 베네수엘라와의 공식 관계를 7년 만에 재개했다.

米国の政治漫画家たちが描く今週のワシントン
米国各地の政治漫画家が毎週の風刺で時代を記録している。

IMF, 7년 만에 베네수엘라와 관계 재개…49억 달러 동결 해제 가능성
IMF가 7년 만에 베네수엘라와 공식 협력을 재개하기로 결정했다.

ジャングルがコンクリートを飲み込んだ日——ロンドン・バービカン温室の逆説
写真家アルトラートがロンドン・バービカン温室の空間的逆説を連作でとらえた。

경상흑자 역대 최대인데 원화는 왜 약해지나
한국은행, 경상흑자에도 원화 약세 이어지는 구조적 원인 공식 분석.





