Safetensors se une a la Fundación PyTorch e inaugura una nueva era de gobernanza neutral para el ML de código abierto
El formato de serialización segura de tensores de Hugging Face pasa a manos de la Linux Foundation como infraestructura de la comunidad

- •Safetensors se ha unido a la Fundación PyTorch, transfiriendo su marca registrada y gobernanza a la Linux Foundation.
- •Diseñado para eliminar el riesgo de ejecución de código de los formatos basados en pickle, es ahora el formato por defecto para decenas de miles de modelos en el Hugging Face Hub.
- •Se anunció una ambiciosa hoja de ruta que incluye la integración en el núcleo de PyTorch, carga consciente del dispositivo y soporte oficial para FP8 y formatos cuantizados.
Safetensors se une oficialmente a la Fundación PyTorch
Safetensors, el formato de almacenamiento de modelos de aprendizaje automático (ML) desarrollado por Hugging Face, se ha unido oficialmente a la Fundación PyTorch como proyecto alojado por la fundación. Ahora comparte espacio junto a DeepSpeed, Helion, Ray, vLLM y el propio PyTorch bajo el paraguas de la Linux Foundation. Con este movimiento, la marca registrada, el repositorio y la gobernanza de Safetensors dejan de pertenecer exclusivamente a Hugging Face y pasan a la Linux Foundation.
Por qué importa este anuncio
Safetensors es actualmente el formato de almacenamiento por defecto de decenas de miles de modelos en el Hugging Face Hub, abarcando todas las modalidades: texto, imagen, audio y más. El proyecto se ha convertido en el estándar de facto para compartir modelos de ML de código abierto, y ahora sale de la propiedad de una sola empresa para entrar en una estructura de gobernanza neutral respecto a los proveedores (vendor-neutral).
El significado va más allá de ampliar los canales de contribución de código. Se ha establecido una ruta formal y documentada para que cualquier colaborador pueda convertirse en mantenedor (maintainer), recogida en GOVERNANCE.md y MAINTAINERS.md. Estructuralmente, se reduce de forma sustancial el riesgo de que la infraestructura crítica de código abierto se vea condicionada por las prioridades cambiantes de una sola empresa.
Qué ha cambiado
| Elemento | Antes | Después |
|---|---|---|
| Propiedad | Hugging Face en exclusiva | Linux Foundation (Fundación PyTorch) |
| Gobernanza | Decisiones internas | GOVERNANCE.md público |
| Ruta de mantenedor | Informal | Documentada formalmente, abierta a todos |
| Dirección técnica | Interna de HF | TSC; Luc y Daniel continúan |
| Compatibilidad API/formato | — | Sin cambios, totalmente retrocompatible |
Para los usuarios actuales, nada cambia: el formato, las APIs y la integración con el Hub permanecen idénticos. Los modelos ya almacenados en formato Safetensors seguirán funcionando sin necesidad de migración.
Cómo llegamos aquí — De la vulnerabilidad de seguridad al estándar del ecosistema
Safetensors nació de una vulnerabilidad estructural del ecosistema Python. Los formatos de serialización basados en pickle que dominaban el ML inicial permitían la ejecución de código arbitrario con solo cargar un archivo. Era un riesgo tolerable cuando el intercambio de modelos se limitaba a pequeños círculos de investigación, pero a medida que el intercambio abierto de modelos se disparó a través del Hugging Face Hub en 2022–2023, pickle se convirtió en un vector viable de ataque a la cadena de suministro (supply chain).
La solución de Hugging Face fue deliberadamente minimalista. El formato consta de una cabecera JSON (limitada a 100 MB, que describe los metadatos de los tensores) seguida de los datos brutos del tensor. Sus características clave son la carga sin copia (zero-copy), que mapea los tensores directamente desde el disco, y la carga diferida (lazy loading), que permite leer pesos individuales sin deserializar un checkpoint completo. Al no existir ninguna ruta de ejecución de código en el propio formato, las cargas maliciosas no tienen punto de entrada estructural.
La adopción superó las expectativas. Los principales hubs de modelos y frameworks adoptaron rápidamente Safetensors como formato por defecto, y hoy abarca LLMs (modelos de lenguaje de gran escala), modelos de generación de imágenes, modelos de audio y más.
¿Qué viene ahora? [Análisis experto]
La hoja de ruta presentada junto al anuncio de la Fundación PyTorch sugiere que Safetensors está destinado a evolucionar de un formato de archivo a una capa fundamental de la infraestructura de ML.
Integración en el núcleo de PyTorch: Se está trabajando con el equipo de PyTorch para convertir Safetensors en el sistema de serialización por defecto para los modelos torch. De completarse, podría transformar la experiencia de guardar y cargar modelos para cientos de millones de usuarios de PyTorch.
Carga consciente del dispositivo: El soporte planificado para cargar tensores directamente en CUDA, ROCm y otros aceleradores sin una etapa intermedia en la CPU probablemente reducirá de forma notable la latencia de inicio en la inferencia de modelos grandes.
APIs de carga paralela: Las APIs de primera clase para Tensor Parallel y Pipeline Parallel, que permiten que cada rango o etapa del pipeline cargue únicamente los pesos que necesita, están en la hoja de ruta. Esto es una característica de alto impacto para operar modelos con cientos de miles de millones de parámetros a menor coste.
Soporte de formatos de cuantización: Se formalizará el soporte oficial para FP8, formatos cuantizados en bloques como GPTQ y AWQ, y tipos enteros de sub-byte, respondiendo directamente a la creciente demanda de la comunidad de eficiencia en inferencia.
La estructura de gobernanza de la Linux Foundation también es probable que reduzca la barrera de adopción empresarial. Las grandes organizaciones con políticas estrictas de seguridad en la cadena de suministro y gestión de dependencias de código abierto tienden a otorgar mayor confianza a los proyectos de fundaciones neutrales que a los controlados por un único proveedor. Safetensors podría estar posicionándose para convertirse en el equivalente al estándar de internet para la infraestructura de ML.
댓글 (95)
참고가 됩니다. Safetensors 관련 배경 설명이 이해하기 쉬웠습니다. 나중에 다시 읽어볼 만합니다.
se 관련 해외 동향도 궁금합니다. 주변에도 공유해야겠어요.
몰랐던 사실을 알게 됐습니다. une 기사에서 언급된 사례가 흥미로웠습니다. 잘 정리된 기사네요.
safetensors에 대해 주변 사람들과 이야기 나눠볼 만합니다.
유익한 기사네요. LLM이 앞으로 어떻게 전개될지 주목해야겠습니다.
잘 읽었습니다. Safetensors의 전문가 코멘트가 설득력 있었습니다.
흥미로운 주제입니다. se에 대해 처음 접하는 정보가 있었습니다. 잘 정리된 기사네요.
흥미로운 주제입니다. une의 향후 전망이 궁금합니다.
잘 읽었습니다. safetensors 관련 배경 설명이 이해하기 쉬웠습니다. 다른 시각의 분석도 읽어보고 싶습니다.
읽기 좋은 기사입니다. LLM 관련 데이터가 인상적이었습니다.
Safetensors이 앞으로 어떻게 전개될지 주목해야겠습니다.
기사 퀄리티가 좋습니다.
une에 대해 처음 접하는 정보가 있었습니다. 좋은 기사 감사합니다.
safetensors의 전문가 코멘트가 설득력 있었습니다.
LLM 관련 배경 설명이 이해하기 쉬웠습니다.
Safetensors에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.
se의 향후 전망이 궁금합니다. 계속 지켜봐야겠습니다.
이런 시각도 있었군요. une 기사에서 언급된 사례가 흥미로웠습니다.
safetensors에 대해 처음 접하는 정보가 있었습니다. 좋은 기사 감사합니다.
구독 중인데 만족합니다.
Safetensors의 전문가 코멘트가 설득력 있었습니다.
se 관련 용어 설명이 친절해서 좋았습니다.
une 관련 해외 동향도 궁금합니다.
좋은 정리입니다. safetensors 주제로 시리즈 기사가 나오면 좋겠습니다.
북마크해두겠습니다. LLM의 향후 전망이 궁금합니다. 좋은 기사 감사합니다.
잘 읽었습니다. Safetensors 주제로 시리즈 기사가 나오면 좋겠습니다. 주변에도 공유해야겠어요.
깔끔한 기사입니다. se이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
북마크해두겠습니다. une에 대해 주변 사람들과 이야기 나눠볼 만합니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
safetensors 기사에서 언급된 사례가 흥미로웠습니다.
기자님 수고하셨습니다.
참고가 됩니다. Safetensors이 일상에 어떤 영향을 줄지 생각해보게 됩니다.
se 기사에서 언급된 사례가 흥미로웠습니다. 생각이 바뀌었습니다.
흥미로운 주제입니다. une이 앞으로 어떻게 전개될지 주목해야겠습니다.
safetensors이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 잘 정리된 기사네요.
출퇴근길에 항상 읽고 있습니다.
이런 시각도 있었군요. Safetensors의 향후 전망이 궁금합니다.
se 관련 배경 설명이 이해하기 쉬웠습니다.
une이 앞으로 어떻게 전개될지 주목해야겠습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
매일 여기서 뉴스 보고 있어요.
LLM 관련 통계가 의외였습니다. 나중에 다시 읽어볼 만합니다.
좋은 정리입니다. Safetensors의 전문가 코멘트가 설득력 있었습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
se이 앞으로 어떻게 전개될지 주목해야겠습니다.
몰랐던 사실을 알게 됐습니다. une 관련 통계가 의외였습니다.
safetensors 주제로 시리즈 기사가 나오면 좋겠습니다.
LLM이 일상에 어떤 영향을 줄지 생각해보게 됩니다.
Safetensors 관련 배경 설명이 이해하기 쉬웠습니다. 나중에 다시 읽어볼 만합니다.
유익한 기사네요. se 관련 통계가 의외였습니다.
une 관련 통계가 의외였습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
safetensors 관련 용어 설명이 친절해서 좋았습니다.
LLM에 대해 주변 사람들과 이야기 나눠볼 만합니다. 다른 시각의 분석도 읽어보고 싶습니다.
Safetensors 관련 배경 설명이 이해하기 쉬웠습니다.
se이 일상에 어떤 영향을 줄지 생각해보게 됩니다.
une의 향후 전망이 궁금합니다. 다른 시각의 분석도 읽어보고 싶습니다.
safetensors의 전문가 코멘트가 설득력 있었습니다. 주변에도 공유해야겠어요.
몰랐던 사실을 알게 됐습니다. LLM 관련 용어 설명이 친절해서 좋았습니다.
Safetensors에 대해 처음 접하는 정보가 있었습니다. 잘 정리된 기사네요.
se 주제로 시리즈 기사가 나오면 좋겠습니다.
une 관련 용어 설명이 친절해서 좋았습니다.
safetensors에 대해 처음 접하는 정보가 있었습니다.
이런 시각도 있었군요. LLM에 대해 더 알고 싶어졌습니다.
Safetensors에 대해 처음 접하는 정보가 있었습니다.
읽기 좋은 기사입니다. se이 일상에 어떤 영향을 줄지 생각해보게 됩니다.
une 관련 해외 동향도 궁금합니다. 후속 기사 부탁드립니다.
잘 읽었습니다. safetensors에 대해 주변 사람들과 이야기 나눠볼 만합니다.
객관적인 시각이 돋보이는 기사입니다.
Safetensors 관련 통계가 의외였습니다. 주변에도 공유해야겠어요.
흥미로운 주제입니다. se에 대해 더 알고 싶어졌습니다.
읽기 좋은 기사입니다. une에 대해 주변 사람들과 이야기 나눠볼 만합니다.
흥미로운 주제입니다. safetensors이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 좋은 기사 감사합니다.
흥미로운 주제입니다. LLM 관련 통계가 의외였습니다.
댓글 보는 재미도 있네요.
유익한 기사네요. se이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 잘 정리된 기사네요.
읽기 좋은 기사입니다. une 관련 데이터가 인상적이었습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
좋은 기사 감사합니다.
LLM의 향후 전망이 궁금합니다.
읽기 좋은 기사입니다. Safetensors 주제로 시리즈 기사가 나오면 좋겠습니다. 다른 시각의 분석도 읽어보고 싶습니다.
se에 대해 주변 사람들과 이야기 나눠볼 만합니다.
une 관련 배경 설명이 이해하기 쉬웠습니다. 후속 기사 부탁드립니다.
safetensors 관련 해외 동향도 궁금합니다.
몰랐던 사실을 알게 됐습니다. LLM에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 나중에 다시 읽어볼 만합니다.
깔끔한 기사입니다. Safetensors 관련 통계가 의외였습니다.
se 관련 데이터가 인상적이었습니다.
북마크해두겠습니다. une 기사에서 언급된 사례가 흥미로웠습니다. 나중에 다시 읽어볼 만합니다.
safetensors 관련 통계가 의외였습니다. 다른 시각의 분석도 읽어보고 싶습니다.
LLM 관련 통계가 의외였습니다.
핵심만 잘 정리해주시네요.
이런 시각도 있었군요. se 관련 해외 동향도 궁금합니다.
une의 전문가 코멘트가 설득력 있었습니다.
흥미로운 주제입니다. safetensors에 대해 더 알고 싶어졌습니다.
LLM에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 주변에도 공유해야겠어요.
Safetensors 관련 데이터가 인상적이었습니다.
se에 대해 더 알고 싶어졌습니다.
요즘 이 매체 기사가 제일 읽기 좋아요.
safetensors 관련 통계가 의외였습니다.
LLM에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.
Más de esta serie
Más en IA y Tecnología
Últimas noticias

ICIJ investiga las estrategias de precios y patentes de Merck con Keytruda
El ICIJ revela las estrategias de precios y patentes de Merck con Keytruda en la investigación Cancer Calculus.

Entra en vigor la tregua de 10 días entre Israel y Líbano; la ONU espera que abra negociaciones
Un alto el fuego de 10 días entre Israel y Líbano entró en vigor el 17 de abril a medianoche.

JWST, 성간 혜성 3I/ATLAS에서 메테인 최초 검출…외계 행성계 단서 포착
JWST가 성간 혜성 3I/ATLAS에서 메테인을 최초 직접 검출, 외계 행성계 내부 조성 단서 확보.

달러 패권 흔들린다…옐런·경제학자들 잇따라 경고
옐런 전 재무장관, 트럼프의 연준 압박을 '바나나 공화국'식이라 비판.

IMF, 7년 만에 베네수엘라와 관계 재개…49억 달러 동결 해제 기대
IMF가 2019년 이후 중단됐던 베네수엘라와의 공식 관계를 7년 만에 재개했다.

Los caricaturistas de EE.UU. retratan la semana política en Washington
Los caricaturistas políticos de todo EE.UU. documentan la era mediante sátira semanal.

IMF, 7년 만에 베네수엘라와 관계 재개…49억 달러 동결 해제 가능성
IMF가 7년 만에 베네수엘라와 공식 협력을 재개하기로 결정했다.

Cuando la jungla devoró el hormigón: la paradoja del Conservatorio Barbican de Londres
El fotógrafo Altrath capta en una nueva serie la paradoja espacial del Conservatorio Barbican de Londres.





