AI & Tech

Safetensors Joins the PyTorch Foundation, Ushering in a New Era of Neutral Governance for Open-Source ML

Hugging Face's safe tensor serialization format moves under the Linux Foundation, becoming community-owned infrastructure

한서진··5 min read·
Safetensors is Joining the PyTorch Foundation
Summary
  • Safetensors has joined the PyTorch Foundation, transferring its trademark and governance to the Linux Foundation.
  • Designed to eliminate the code-execution risk of pickle-based formats, it is now the default format for tens of thousands of models on the Hugging Face Hub.
  • A major roadmap was announced, including PyTorch core integration, device-aware loading, and official support for FP8 and quantized formats.

Safetensors Officially Joins the PyTorch Foundation

Safetensors, the machine learning (ML) model storage format developed by Hugging Face, has officially joined the PyTorch Foundation as a foundation-hosted project. It now sits alongside DeepSpeed, Helion, Ray, vLLM, and PyTorch itself under the Linux Foundation umbrella. With this move, the trademark, repository, and governance of Safetensors are transferred from Hugging Face's sole stewardship to the Linux Foundation.

Why This Announcement Matters

Safetensors is currently the default storage format for tens of thousands of models on the Hugging Face Hub, spanning every modality—text, image, audio, and beyond. The project has become the de facto standard for open-source ML model sharing, and it now moves out of single-company ownership into a vendor-neutral governance structure.

The significance goes beyond expanded code contribution channels. A formal, documented path for any contributor to become a maintainer has been established via GOVERNANCE.md and MAINTAINERS.md. Structurally, the risk of critical open-source infrastructure being swayed by any single company's shifting priorities or business decisions is substantially reduced.

What Has Changed

ItemBeforeAfter
OwnershipHugging Face soleLinux Foundation (PyTorch Foundation)
GovernanceInternal decisionsPublic GOVERNANCE.md
Maintainer pathInformalFormally documented, open to all
Technical steeringHF internalTSC; Luc & Daniel remain
API/format compatibilityUnchanged, fully backward-compatible

For existing users, nothing changes: the format, APIs, and Hub integration remain identical. Models already stored in Safetensors format will continue to work without any migration.

How We Got Here — From Security Vulnerability to Ecosystem Standard

Safetensors was born from a structural vulnerability in the Python ecosystem. The pickle-based serialization formats that dominated early ML workflows allowed arbitrary code execution simply by loading a file. This was a tolerable risk when model sharing was limited to small research circles, but as open model sharing exploded via the Hugging Face Hub in 2022–2023, pickle became a viable supply chain attack vector.

Hugging Face's solution was deliberately minimal. The format consists of a JSON header (capped at 100MB, describing tensor metadata) followed by raw tensor data. Key properties include zero-copy loading that maps tensors directly from disk, and lazy loading that allows reading individual weights without deserializing an entire checkpoint. With no code execution path in the format itself, malicious payloads have no structural entry point.

Adoption outpaced expectations. Major model hubs and frameworks rapidly adopted Safetensors as their default format, and today it spans LLMs (large language models), image generation models, audio models, and more.

What Comes Next [Expert Analysis]

The roadmap unveiled alongside the PyTorch Foundation announcement suggests Safetensors is set to evolve from a file format into a core layer of ML infrastructure.

PyTorch Core Integration: Work is underway with the PyTorch team to make Safetensors the default serialization system for torch models. If completed, this could reshape the default save/load experience for hundreds of millions of PyTorch users.

Device-Aware Loading: Planned support for loading tensors directly onto CUDA, ROCm, and other accelerators without unnecessary CPU staging is likely to meaningfully reduce inference startup latency for large models.

Parallel Loading APIs: First-class APIs for Tensor Parallel and Pipeline Parallel loading—enabling each rank or pipeline stage to load only the weights it needs—are on the roadmap. This is a high-impact feature for operating models with hundreds of billions of parameters at lower cost.

Quantization Format Support: Official support for FP8, block-quantized formats such as GPTQ and AWQ, and sub-byte integer types will be formalized, directly addressing the growing demand from the inference efficiency community.

The Linux Foundation governance structure is also likely to lower the barrier for enterprise adoption. Large organizations with strict supply chain security and open-source dependency policies tend to place greater trust in neutral-foundation projects than in those controlled by a single vendor. Safetensors may be positioning itself to become the internet-standard equivalent for ML infrastructure.

Share

댓글 (50)

구름위분석가방금 전

좋은 정리입니다. Safetensors에 대해 주변 사람들과 이야기 나눠볼 만합니다.

여름의토끼방금 전

읽기 좋은 기사입니다. Joins 기사에서 언급된 사례가 흥미로웠습니다. 생각이 바뀌었습니다.

봄날의구름방금 전

the이 앞으로 어떻게 전개될지 주목해야겠습니다. 좋은 기사 감사합니다.

호기심많은리더방금 전

safetensors 관련 배경 설명이 이해하기 쉬웠습니다.

가을의크리에이터방금 전

LLM에 대해 더 알고 싶어졌습니다.

다정한피아노5분 전

몰랐던 사실을 알게 됐습니다. Safetensors의 전문가 코멘트가 설득력 있었습니다. 좋은 기사 감사합니다.

신중한여행자5분 전

좋은 정리입니다. Joins 관련 데이터가 인상적이었습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

판교의여우5분 전

언론이 이래야죠.

구름위라떼5분 전

safetensors의 향후 전망이 궁금합니다.

밝은탐험가5분 전

깔끔한 기사입니다. LLM의 향후 전망이 궁금합니다.

따뜻한아메리카노12분 전

Safetensors에 대해 더 알고 싶어졌습니다.

부산의시민12분 전

Joins이 앞으로 어떻게 전개될지 주목해야겠습니다.

용감한토끼12분 전

the이 앞으로 어떻게 전개될지 주목해야겠습니다.

겨울의녹차12분 전

북마크해두겠습니다. safetensors에 대해 주변 사람들과 이야기 나눠볼 만합니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

아침의토끼12분 전

LLM에 대해 더 알고 싶어졌습니다. 좋은 기사 감사합니다.

도서관의구름30분 전

Safetensors 기사에서 언급된 사례가 흥미로웠습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

조용한구름30분 전

기사 퀄리티가 좋습니다.

봄날의드럼30분 전

읽기 좋은 기사입니다. the 기사에서 언급된 사례가 흥미로웠습니다. 잘 정리된 기사네요.

용감한워커30분 전

이런 시각도 있었군요. safetensors에 대해 주변 사람들과 이야기 나눠볼 만합니다.

오후의사색가30분 전

참고가 됩니다. LLM 관련 해외 동향도 궁금합니다.

조용한시민1시간 전

잘 읽었습니다. Safetensors에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.

봄날의시민1시간 전

Joins에 대해 더 알고 싶어졌습니다. 생각이 바뀌었습니다.

새벽의바람1시간 전

the에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.

부지런한별1시간 전

safetensors이 앞으로 어떻게 전개될지 주목해야겠습니다.

부산의관찰자1시간 전

읽기 좋은 기사입니다. LLM에 대해 주변 사람들과 이야기 나눠볼 만합니다.

산속의달2시간 전

몰랐던 사실을 알게 됐습니다. Safetensors 관련 통계가 의외였습니다. 잘 정리된 기사네요.

아침의연구자2시간 전

Joins 주제로 시리즈 기사가 나오면 좋겠습니다. 전문가 의견도 더 듣고 싶습니다.

봄날의달2시간 전

읽기 좋은 기사입니다. the에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.

꼼꼼한여우2시간 전

safetensors 주제로 시리즈 기사가 나오면 좋겠습니다.

차분한워커2시간 전

LLM에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 잘 정리된 기사네요.

성수의커피3시간 전

Safetensors 기사에서 언급된 사례가 흥미로웠습니다.

구름위첼로3시간 전

Joins에 대해 처음 접하는 정보가 있었습니다. 나중에 다시 읽어볼 만합니다.

햇살의드럼3시간 전

the 관련 배경 설명이 이해하기 쉬웠습니다. 주변에도 공유해야겠어요.

성수의연구자3시간 전

safetensors 관련 데이터가 인상적이었습니다. 계속 지켜봐야겠습니다.

유쾌한여우3시간 전

기자님 수고하셨습니다.

부지런한사색가5시간 전

출퇴근길에 항상 읽고 있습니다.

신중한연구자5시간 전

Joins 주제로 시리즈 기사가 나오면 좋겠습니다.

대전의리더5시간 전

깔끔한 기사입니다. the의 향후 전망이 궁금합니다. 좋은 기사 감사합니다.

부지런한다람쥐5시간 전

잘 읽었습니다. safetensors 관련 데이터가 인상적이었습니다. 다른 시각의 분석도 읽어보고 싶습니다.

성수의워커5시간 전

LLM의 전문가 코멘트가 설득력 있었습니다. 계속 지켜봐야겠습니다.

인천의리더8시간 전

잘 읽었습니다. Safetensors에 대해 처음 접하는 정보가 있었습니다. 생각이 바뀌었습니다.

신중한기록자8시간 전

Joins의 향후 전망이 궁금합니다. 계속 지켜봐야겠습니다.

도서관의독자8시간 전

the 관련 배경 설명이 이해하기 쉬웠습니다. 잘 정리된 기사네요.

햇살의독자8시간 전

깔끔한 기사입니다. safetensors 주제로 시리즈 기사가 나오면 좋겠습니다.

홍대의강아지8시간 전

구독 중인데 만족합니다.

별빛의별

Safetensors 관련 용어 설명이 친절해서 좋았습니다. 나중에 다시 읽어볼 만합니다.

활발한해

몰랐던 사실을 알게 됐습니다. Joins의 향후 전망이 궁금합니다.

신중한바이올린

몰랐던 사실을 알게 됐습니다. the의 향후 전망이 궁금합니다.

차분한여우

다양한 주제를 다뤄주셔서 좋습니다.

겨울의여행자

LLM 기사에서 언급된 사례가 흥미로웠습니다.

More in this series

More in AI & Tech

Latest News