Sentence Transformers Now Supports Multimodal Embedding Model Finetuning
Finetuned 2B model achieves NDCG@10 of 0.947 on VDR, outperforming models up to 4x its size

- •Sentence Transformers officially supports finetuning of multimodal embedding models.
- •A finetuned 2B model achieved NDCG@10 of 0.947 on VDR, outperforming models 4x its size.
- •Full compatibility with the existing text-only training pipeline lowers the entry barrier significantly.
Beyond Text: The Era of Training Embedding Models on Images and Documents
Hugging Face's Python library Sentence Transformers has officially launched support for training and finetuning multimodal embedding and reranker models. In a blog post published on April 16, 2026, developer Tom Aarsen detailed the full pipeline for finetuning multimodal models — capable of handling text, images, audio, and video — on user-specific domain data. In his experiment, finetuning Qwen/Qwen3-VL-Embedding-2B for the Visual Document Retrieval (VDR) task boosted the NDCG@10 score from 0.888 to 0.947, surpassing all existing VDR models tested, including those up to four times larger.
Why Finetuning Matters
General-purpose multimodal embedding models perform reasonably well across diverse tasks — image-text matching, visual question answering, document understanding. But generality rarely translates to optimal performance in a specific domain. In VDR, for instance, a model must find the most relevant document page image from thousands given a text query like "What was the company's Q3 revenue?" — a task requiring deep understanding of tables, charts, and document layouts. Finetuning is the primary mechanism to teach models these domain-specific patterns.
Aarsen demonstrated this with concrete numbers. The finetuned model tomaarsen/Qwen3-VL-Embedding-2B-vdr recorded an NDCG@10 of 0.947 on the evaluation dataset, surpassing the base model (0.888) and every other VDR model tested — including those with four times the parameters.
What Changed
| Item | Before (Text-Only) | This Update (Multimodal) | Change |
|---|---|---|---|
| Supported Modalities | Text | Text, Image, Audio, Video | +4 modalities |
| Training Pipeline | SentenceTransformerTrainer | Same (SentenceTransformerTrainer) | Consistent API |
| Dataset Format | Text pairs | Text + Image mixed | Auto image preprocessing |
| Loss Functions | Various | CachedMultipleNegativesRankingLoss, MatryoshkaLoss | Same options |
| VDR Evaluation (NDCG@10) | — | 0.947 (base: 0.888) | +6.6%p |
The core design principle of this update is full compatibility with the existing text-only training pipeline. Developers use the same SentenceTransformerTrainer; adding a new modality is as simple as including images in the dataset, with the model's processor handling preprocessing automatically. Training components remain identical: Model, Dataset, Loss Function, Training Arguments, Evaluator, and Trainer.
Supported loss functions include CachedMultipleNegativesRankingLoss for efficient large-batch training and MatryoshkaLoss for simultaneously optimizing multiple embedding dimensions. The Matryoshka approach allows flexible use of embeddings at various dimensions from a single model, enabling trade-off adjustments between storage and retrieval speed.
[Expert Analysis] Reshaping the Multimodal Retrieval Landscape
This update is likely to bring substantive change to the multimodal retrieval ecosystem beyond a simple library feature addition.
First, accessibility. Previously, finetuning multimodal embedding models required complex custom training code. Sentence Transformers' standardized pipeline dramatically lowers that barrier, enabling startups and small research teams to build domain-specialized models from their own data.
Second, the update challenges assumptions about model size versus performance. A 2B-parameter model outperforming 8B-scale models through domain finetuning validates the "specialization over scale" direction. For enterprises where multimodal document retrieval accuracy is a critical bottleneck in Retrieval-Augmented Generation (RAG) pipelines, finetuning strategies are likely to emerge as a viable alternative.
Third, VDR application expansion is expected. Industries handling documents rich with layout and visual information — financial reports, legal documents, medical imaging — are likely to accelerate adoption of VDR-based retrieval systems. High-value verticals such as enterprise document search, compliance review, and patent retrieval stand out as prime candidates.
That said, two challenges remain: multimodal model training demands substantial GPU memory and compute resources, and securing high-quality domain training data remains the pivotal variable for performance.
댓글 (55)
좋은 정리입니다. Sentence에 대해 처음 접하는 정보가 있었습니다.
Transformers의 향후 전망이 궁금합니다.
이런 시각도 있었군요. Now 관련 통계가 의외였습니다. 주변에도 공유해야겠어요.
좋은 정리입니다. 멀티모달이 일상에 어떤 영향을 줄지 생각해보게 됩니다.
임베딩이 앞으로 어떻게 전개될지 주목해야겠습니다.
좋은 기사 감사합니다.
객관적인 시각이 돋보이는 기사입니다.
이런 시각도 있었군요. Now의 전문가 코멘트가 설득력 있었습니다.
흥미로운 주제입니다. 멀티모달의 전문가 코멘트가 설득력 있었습니다. 좋은 기사 감사합니다.
임베딩 관련 배경 설명이 이해하기 쉬웠습니다. 전문가 의견도 더 듣고 싶습니다.
흥미로운 주제입니다. Sentence에 대해 처음 접하는 정보가 있었습니다.
Transformers 관련 통계가 의외였습니다.
Now 기사에서 언급된 사례가 흥미로웠습니다.
멀티모달 관련 통계가 의외였습니다.
이런 시각도 있었군요. 임베딩의 향후 전망이 궁금합니다.
몰랐던 사실을 알게 됐습니다. Sentence 관련 데이터가 인상적이었습니다.
Transformers이 일상에 어떤 영향을 줄지 생각해보게 됩니다.
구독 중인데 만족합니다.
핵심만 잘 정리해주시네요.
임베딩에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 나중에 다시 읽어볼 만합니다.
몰랐던 사실을 알게 됐습니다. Sentence 관련 통계가 의외였습니다. 좋은 기사 감사합니다.
몰랐던 사실을 알게 됐습니다. Transformers 관련 데이터가 인상적이었습니다.
Now에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 주변에도 공유해야겠어요.
몰랐던 사실을 알게 됐습니다. 멀티모달에 대해 주변 사람들과 이야기 나눠볼 만합니다.
다른 기사도 기대하겠습니다.
Sentence 관련 통계가 의외였습니다.
Transformers 기사에서 언급된 사례가 흥미로웠습니다.
좋은 정리입니다. Now에 대해 더 알고 싶어졌습니다.
멀티모달 관련 데이터가 인상적이었습니다.
임베딩에 대해 주변 사람들과 이야기 나눠볼 만합니다.
Sentence의 향후 전망이 궁금합니다.
참고가 됩니다. Transformers 관련 배경 설명이 이해하기 쉬웠습니다. 전문가 의견도 더 듣고 싶습니다.
참고가 됩니다. Now에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 후속 기사 부탁드립니다.
멀티모달 관련 해외 동향도 궁금합니다.
임베딩 관련 해외 동향도 궁금합니다. 전문가 의견도 더 듣고 싶습니다.
Sentence에 대해 처음 접하는 정보가 있었습니다.
Transformers에 대해 주변 사람들과 이야기 나눠볼 만합니다.
Now의 전문가 코멘트가 설득력 있었습니다.
유익한 기사네요. 멀티모달 관련 통계가 의외였습니다. 좋은 기사 감사합니다.
이런 시각도 있었군요. 임베딩 관련 배경 설명이 이해하기 쉬웠습니다. 후속 기사 부탁드립니다.
Sentence이 일상에 어떤 영향을 줄지 생각해보게 됩니다.
이런 시각도 있었군요. Transformers이 일상에 어떤 영향을 줄지 생각해보게 됩니다.
잘 읽었습니다. Now 관련 배경 설명이 이해하기 쉬웠습니다. 다른 시각의 분석도 읽어보고 싶습니다.
멀티모달에 대해 더 알고 싶어졌습니다. 잘 정리된 기사네요.
북마크해두겠습니다. 임베딩 관련 해외 동향도 궁금합니다.
Sentence에 대해 더 알고 싶어졌습니다.
Transformers 관련 해외 동향도 궁금합니다.
좋은 정리입니다. Now에 대해 처음 접하는 정보가 있었습니다.
멀티모달이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 계속 지켜봐야겠습니다.
임베딩의 향후 전망이 궁금합니다. 전문가 의견도 더 듣고 싶습니다.
유익한 기사네요.
Transformers이 앞으로 어떻게 전개될지 주목해야겠습니다. 다른 시각의 분석도 읽어보고 싶습니다.
출퇴근길에 항상 읽고 있습니다.
멀티모달이 일상에 어떤 영향을 줄지 생각해보게 됩니다.
임베딩의 전문가 코멘트가 설득력 있었습니다. 생각이 바뀌었습니다.
More in this series
More in AI & Tech
Latest News

IMF, 7년 만에 베네수엘라와 관계 재개…49억 달러 동결 해제 기대
IMF가 2019년 이후 중단됐던 베네수엘라와의 공식 관계를 7년 만에 재개했다.

IMF, 7년 만에 베네수엘라와 관계 재개…49억 달러 동결 해제 가능성
IMF가 7년 만에 베네수엘라와 공식 협력을 재개하기로 결정했다.

경상흑자 역대 최대인데 원화는 왜 약해지나
한국은행, 경상흑자에도 원화 약세 이어지는 구조적 원인 공식 분석.

금융당국, 미래에셋에 SpaceX IPO 조기 마케팅 경고
금융당국이 미래에셋증권의 SpaceX IPO 조기 마케팅에 구두 경고를 내렸다.

베네치아, 수백 년 안에 사라진다...유럽 연구팀의 4가지 생존 방안
유럽 연구팀, 베네치아 생존 위한 4가지 시나리오를 Scientific Reports에 발표했다.

96년 전통 깬다…월드컵 결승전, 사상 첫 하프타임 쇼
FIFA가 96년 만에 처음으로 월드컵 결승전 하프타임 쇼를 도입한다.

레바논 사망자 2,196명…이스라엘 공습에 의료 시스템 붕괴 위기
이스라엘 공습으로 레바논 누적 사망자 2,196명, 부상자 7,185명 기록

이란 전쟁 속 걸프 3국, 사모채권으로 100억 달러 조달
걸프 3국이 이란 전쟁 이후 처음으로 사모채권 발행에 나서 약 100억 달러를 조달했다.





