AI・テック

Google DeepMindがGemma 4を公開——オープンソースでフロンティア級マルチモーダルAIをオンデバイスへ

31Bモデルは LMArena 1,452点、26B MoEは4Bのアクティブパラメータのみで1,441点——Apache 2.0で完全商用利用可能

유재민··6分で読めます·
Welcome Gemma 4: Frontier multimodal intelligence on device
要約
  • Google DeepMindがGemma 4を公開、31BデンスモデルがリMArena 1,452点、26B MoEが1,441点を達成。
  • Apache 2.0完全オープンソースで画像・テキスト・音声のマルチモーダルをサポートし、オンデバイス展開も可能。
  • PLE・共有KVキャッシュ・デュアルRoPEなど新アーキテクチャでメモリ効率と長コンテキスト処理を同時に向上。

Google DeepMindのオンデバイス・マルチモーダル革新

Google DeepMindが次世代オープンソース・マルチモーダルモデルファミリー Gemma 4 をHugging Faceを通じて正式公開した。Apache 2.0ライセンスで完全公開されたこのモデルは、画像・テキスト・音声の入力をすべてサポートする。31Bデンス(dense)モデルの推定LMArenaスコア(テキストのみ)は1,452点、26B混合エキスパート(MoE、Mixture of Experts)モデルはわずか40億のアクティブパラメータで1,441点を記録した。transformers、llama.cpp、MLX、WebGPU、Rustなど主要な推論エンジンを全面サポートし、コミュニティとの互換性を最大化した。

なぜ今Gemma 4なのか

Gemma 4は単なる性能アップグレードではない。オープンソースAIエコシステムにおいて、フロンティア(frontier)レベルのマルチモーダル・インテリジェンスをオンデバイス(on-device)で実現するという点に大きな意義がある。

従来のオープンソース・マルチモーダルモデルが画像-テキスト入力にとどまっていたのに対し、Gemma 4の小型バリアント(E2B、E4B)は音声もサポートする。エッジデバイス(edge device)でリアルタイム音声認識とテキスト生成を同時処理できることを意味する。

可変アスペクト比(variable aspect ratio)サポートと5段階の画像トークン数調整(70・140・280・560・1,120)により、速度・メモリ・品質のトレードオフをユーザーが直接制御できる。モバイル環境からサーバー環境まで、同一モデルファミリーを柔軟に活用できる。

Hugging Faceによると、「事前リリースのチェックポイントテストでは、ファインチューニング(fine-tuning)の例を見つけるのが困難なほどベース性能が優秀だった」という。

前バージョンから何が変わったか

項目Gemma 3Gemma 3nGemma 4変化
マルチモーダル画像+テキスト画像+テキスト+音声画像+テキスト+音声+動画動画追加
アスペクト比固定固定可変柔軟性向上
画像トークン調整単一単一5段階調整可能性能-効率バランス
KVキャッシュ標準標準共有KVキャッシュメモリ効率向上
埋め込み構造単一埋め込みPLE導入PLE拡張レイヤーごとの残差信号
LMArenaスコア1,452 (31B) / 1,441 (26B MoE)フロンティアレベル達成
ライセンスApache 2.0Apache 2.0Apache 2.0維持

3つのコアアーキテクチャ革新

レイヤー別埋め込み(PLE、Per-Layer Embeddings): 標準トランスフォーマー(transformer)では各トークンは入力時に単一の埋め込みベクトルのみを持つ。PLEは第2の埋め込みテーブルを追加し、各デコーダーレイヤーに小規模な残差(residual)信号を注入する。レイヤーごとにコンテキスト依存の特徴をより精密に捉えられる。

共有KVキャッシュ(Shared KV Cache): モデルの最後のNレイヤーが前レイヤーのキー-バリュー(key-value)状態を再利用し、重複するKVプロジェクションを排除する。メモリ使用量の削減と推論速度の向上を同時に実現する。

デュアルRoPE構成(Dual RoPE): スライディングウィンドウレイヤーには標準RoPEを、グローバルアテンションレイヤーには枝刈りされた(pruned)RoPEを適用し、長いコンテキスト(long context)を効率的に処理する。小型デンスモデルは512トークン、大型モデルは1,024トークンのスライディングウィンドウを使用する。

Gemmaの歩み: Googleのオープンソース戦略

GoogleがオープンソースAIモデル競争に本格参入したのは比較的最近だ。2023年のChatGPTの爆発的成長を受け、MetaのLLaMAシリーズやMistralのオープンリリースがオープンソースモデルの競争力を実証した。

Google DeepMindは2024年初頭にGemma 1をリリースし、オープンソース陣営に加わった。Gemma 2ではパラミータ効率を向上させ小型モデル市場を攻略、Gemma 3では画像-テキストのマルチモーダル機能を追加、Gemma 3nはオンデバイス最適化に注力しPLEと音声サポートを初めて導入した。

Gemma 4はこれらすべての革新を1つのファミリーに統合し、「オープンソースモデルでもフロンティア性能を達成できる」という命題を実証している。TRL、Unsloth Studio、Vertex AIによるファインチューニングサポートも加わり、エコシステムの完結性を高めた。

今後どうなるか [専門家分析]

Gemma 4のリリースは、オープンソースAIの競争地形を再編する可能性が高い。

オンデバイスAIの主流化: E2B・E4Bの小型モデルがスマートフォンとエッジデバイスで音声処理まで担えるようになることで、クラウドAPI依存度を下げるプライバシー重視のAIアプリケーションが急速に普及する可能性が高い。

コスト効率的な企業展開の新基準: 26B MoEモデルが4Bのアクティブパラメータのみで1,441点を記録したことは、推論コストを劇的に下げられることを示唆する。類似性能の商用APIと比較した総所有コスト(TCO)の削減効果から、スタートアップによるGemma 4採用が加速する可能性が高い。

マルチモーダル標準競争の激化: 可変アスペクト比と5段階の画像トークン制御という革新は、競合他社も同様の機能を導入する可能性を高める。GPT-4o、Claude(クロード)などの主要モデルの次のアップデートでこれらの機能が標準化されうる。

Apache 2.0の戦略的意義: 完全商用ライセンスにより、Gemma 4を企業製品に直接組み込むことが可能となる。これはGoogleクラウドエコシステムとの連携を強化しながら、オープンソースAIコミュニティでのGoogleの影響力を拡大するという二重戦略として解釈される。

オープンソースAIがフロンティアモデルに追いつくスピードは2024年以降急激に加速している。Gemma 4はその流れにおける重要なマイルストーンとなる可能性が高い。

共有

댓글 (37)

한밤의다람쥐방금 전

유익한 기사네요. Google 기사에서 언급된 사례가 흥미로웠습니다. 좋은 기사 감사합니다.

호기심많은판다방금 전

몰랐던 사실을 알게 됐습니다. gemma-4에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 주변에도 공유해야겠어요.

바람의구름방금 전

몰랐던 사실을 알게 됐습니다. LLM이 앞으로 어떻게 전개될지 주목해야겠습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

바닷가의연구자방금 전

Google의 전문가 코멘트가 설득력 있었습니다.

겨울의부엉이5분 전

잘 읽었습니다. gemma-4 관련 데이터가 인상적이었습니다.

카페의러너5분 전

잘 읽었습니다. LLM에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.

바닷가의워커5분 전

Google 관련 해외 동향도 궁금합니다.

카페의구름5분 전

흥미로운 주제입니다. gemma-4의 전문가 코멘트가 설득력 있었습니다.

열정적인아메리카노12분 전

몰랐던 사실을 알게 됐습니다. LLM이 일상에 어떤 영향을 줄지 생각해보게 됩니다.

저녁의부엉이12분 전

다른 기사도 기대하겠습니다.

아침의첼로12분 전

깔끔한 기사입니다. gemma-4 기사에서 언급된 사례가 흥미로웠습니다.

서울의바이올린12분 전

LLM에 대해 더 알고 싶어졌습니다. 다른 시각의 분석도 읽어보고 싶습니다.

느긋한다람쥐30분 전

좋은 정리입니다. Google 관련 통계가 의외였습니다.

느긋한강아지30분 전

gemma-4의 향후 전망이 궁금합니다. 나중에 다시 읽어볼 만합니다.

별빛의강아지30분 전

LLM 관련 해외 동향도 궁금합니다.

솔직한러너1시간 전

이런 시각도 있었군요. Google에 대해 처음 접하는 정보가 있었습니다.

한밤의관찰자1시간 전

gemma-4 관련 해외 동향도 궁금합니다.

유쾌한별1시간 전

잘 읽었습니다. LLM 관련 데이터가 인상적이었습니다.

봄날의에스프레소1시간 전

읽기 좋은 기사입니다. Google 관련 해외 동향도 궁금합니다.

햇살의에스프레소2시간 전

몰랐던 사실을 알게 됐습니다. gemma-4 주제로 시리즈 기사가 나오면 좋겠습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

성수의리더2시간 전

LLM에 대해 처음 접하는 정보가 있었습니다.

대전의해2시간 전

흥미로운 주제입니다. Google에 대해 처음 접하는 정보가 있었습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

한밤의바람2시간 전

유익한 기사네요. gemma-4 관련 해외 동향도 궁금합니다. 다른 시각의 분석도 읽어보고 싶습니다.

카페의돌고래3시간 전

흥미로운 주제입니다. LLM 관련 용어 설명이 친절해서 좋았습니다.

재빠른드리머3시간 전

Google의 향후 전망이 궁금합니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

냉철한첼로3시간 전

gemma-4에 대해 처음 접하는 정보가 있었습니다.

다정한비평가5시간 전

기사 퀄리티가 좋습니다.

인천의사자5시간 전

좋은 정리입니다. Google 관련 데이터가 인상적이었습니다.

유쾌한비평가5시간 전

유익한 기사네요. gemma-4이 앞으로 어떻게 전개될지 주목해야겠습니다. 나중에 다시 읽어볼 만합니다.

똑똑한사자5시간 전

LLM에 대해 더 알고 싶어졌습니다.

진지한판다8시간 전

Google 관련 해외 동향도 궁금합니다. 후속 기사 부탁드립니다.

오후의기타8시간 전

깔끔한 기사입니다. gemma-4 관련 해외 동향도 궁금합니다.

호기심많은분석가8시간 전

LLM의 전문가 코멘트가 설득력 있었습니다.

다정한분석가8시간 전

Google에 대해 처음 접하는 정보가 있었습니다. 나중에 다시 읽어볼 만합니다.

부산의피아노

유익한 기사네요. gemma-4 주제로 시리즈 기사가 나오면 좋겠습니다.

해운대의드리머

LLM 기사에서 언급된 사례가 흥미로웠습니다. 주변에도 공유해야겠어요.

느긋한펭귄

Google에 대해 처음 접하는 정보가 있었습니다. 전문가 의견도 더 듣고 싶습니다.

このシリーズの他の記事

AI・テックの記事をもっと見る

最新ニュース