IA y Tecnología

Safetensors se une a la Fundación PyTorch e inaugura una nueva era de gobernanza neutral para el ML de código abierto

El formato de serialización segura de tensores de Hugging Face pasa a manos de la Linux Foundation como infraestructura de la comunidad

한서진··5 min de lectura·
Safetensors is Joining the PyTorch Foundation
Resumen
  • Safetensors se ha unido a la Fundación PyTorch, transfiriendo su marca registrada y gobernanza a la Linux Foundation.
  • Diseñado para eliminar el riesgo de ejecución de código de los formatos basados en pickle, es ahora el formato por defecto para decenas de miles de modelos en el Hugging Face Hub.
  • Se anunció una ambiciosa hoja de ruta que incluye la integración en el núcleo de PyTorch, carga consciente del dispositivo y soporte oficial para FP8 y formatos cuantizados.

Safetensors se une oficialmente a la Fundación PyTorch

Safetensors, el formato de almacenamiento de modelos de aprendizaje automático (ML) desarrollado por Hugging Face, se ha unido oficialmente a la Fundación PyTorch como proyecto alojado por la fundación. Ahora comparte espacio junto a DeepSpeed, Helion, Ray, vLLM y el propio PyTorch bajo el paraguas de la Linux Foundation. Con este movimiento, la marca registrada, el repositorio y la gobernanza de Safetensors dejan de pertenecer exclusivamente a Hugging Face y pasan a la Linux Foundation.

Por qué importa este anuncio

Safetensors es actualmente el formato de almacenamiento por defecto de decenas de miles de modelos en el Hugging Face Hub, abarcando todas las modalidades: texto, imagen, audio y más. El proyecto se ha convertido en el estándar de facto para compartir modelos de ML de código abierto, y ahora sale de la propiedad de una sola empresa para entrar en una estructura de gobernanza neutral respecto a los proveedores (vendor-neutral).

El significado va más allá de ampliar los canales de contribución de código. Se ha establecido una ruta formal y documentada para que cualquier colaborador pueda convertirse en mantenedor (maintainer), recogida en GOVERNANCE.md y MAINTAINERS.md. Estructuralmente, se reduce de forma sustancial el riesgo de que la infraestructura crítica de código abierto se vea condicionada por las prioridades cambiantes de una sola empresa.

Qué ha cambiado

ElementoAntesDespués
PropiedadHugging Face en exclusivaLinux Foundation (Fundación PyTorch)
GobernanzaDecisiones internasGOVERNANCE.md público
Ruta de mantenedorInformalDocumentada formalmente, abierta a todos
Dirección técnicaInterna de HFTSC; Luc y Daniel continúan
Compatibilidad API/formatoSin cambios, totalmente retrocompatible

Para los usuarios actuales, nada cambia: el formato, las APIs y la integración con el Hub permanecen idénticos. Los modelos ya almacenados en formato Safetensors seguirán funcionando sin necesidad de migración.

Cómo llegamos aquí — De la vulnerabilidad de seguridad al estándar del ecosistema

Safetensors nació de una vulnerabilidad estructural del ecosistema Python. Los formatos de serialización basados en pickle que dominaban el ML inicial permitían la ejecución de código arbitrario con solo cargar un archivo. Era un riesgo tolerable cuando el intercambio de modelos se limitaba a pequeños círculos de investigación, pero a medida que el intercambio abierto de modelos se disparó a través del Hugging Face Hub en 2022–2023, pickle se convirtió en un vector viable de ataque a la cadena de suministro (supply chain).

La solución de Hugging Face fue deliberadamente minimalista. El formato consta de una cabecera JSON (limitada a 100 MB, que describe los metadatos de los tensores) seguida de los datos brutos del tensor. Sus características clave son la carga sin copia (zero-copy), que mapea los tensores directamente desde el disco, y la carga diferida (lazy loading), que permite leer pesos individuales sin deserializar un checkpoint completo. Al no existir ninguna ruta de ejecución de código en el propio formato, las cargas maliciosas no tienen punto de entrada estructural.

La adopción superó las expectativas. Los principales hubs de modelos y frameworks adoptaron rápidamente Safetensors como formato por defecto, y hoy abarca LLMs (modelos de lenguaje de gran escala), modelos de generación de imágenes, modelos de audio y más.

¿Qué viene ahora? [Análisis experto]

La hoja de ruta presentada junto al anuncio de la Fundación PyTorch sugiere que Safetensors está destinado a evolucionar de un formato de archivo a una capa fundamental de la infraestructura de ML.

Integración en el núcleo de PyTorch: Se está trabajando con el equipo de PyTorch para convertir Safetensors en el sistema de serialización por defecto para los modelos torch. De completarse, podría transformar la experiencia de guardar y cargar modelos para cientos de millones de usuarios de PyTorch.

Carga consciente del dispositivo: El soporte planificado para cargar tensores directamente en CUDA, ROCm y otros aceleradores sin una etapa intermedia en la CPU probablemente reducirá de forma notable la latencia de inicio en la inferencia de modelos grandes.

APIs de carga paralela: Las APIs de primera clase para Tensor Parallel y Pipeline Parallel, que permiten que cada rango o etapa del pipeline cargue únicamente los pesos que necesita, están en la hoja de ruta. Esto es una característica de alto impacto para operar modelos con cientos de miles de millones de parámetros a menor coste.

Soporte de formatos de cuantización: Se formalizará el soporte oficial para FP8, formatos cuantizados en bloques como GPTQ y AWQ, y tipos enteros de sub-byte, respondiendo directamente a la creciente demanda de la comunidad de eficiencia en inferencia.

La estructura de gobernanza de la Linux Foundation también es probable que reduzca la barrera de adopción empresarial. Las grandes organizaciones con políticas estrictas de seguridad en la cadena de suministro y gestión de dependencias de código abierto tienden a otorgar mayor confianza a los proyectos de fundaciones neutrales que a los controlados por un único proveedor. Safetensors podría estar posicionándose para convertirse en el equivalente al estándar de internet para la infraestructura de ML.

Compartir

댓글 (95)

차분한기타방금 전

참고가 됩니다. Safetensors 관련 배경 설명이 이해하기 쉬웠습니다. 나중에 다시 읽어볼 만합니다.

구름위사자방금 전

se 관련 해외 동향도 궁금합니다. 주변에도 공유해야겠어요.

재빠른독자방금 전

몰랐던 사실을 알게 됐습니다. une 기사에서 언급된 사례가 흥미로웠습니다. 잘 정리된 기사네요.

판교의토끼방금 전

safetensors에 대해 주변 사람들과 이야기 나눠볼 만합니다.

재빠른구름방금 전

유익한 기사네요. LLM이 앞으로 어떻게 전개될지 주목해야겠습니다.

성수의여우방금 전

잘 읽었습니다. Safetensors의 전문가 코멘트가 설득력 있었습니다.

봄날의독자방금 전

흥미로운 주제입니다. se에 대해 처음 접하는 정보가 있었습니다. 잘 정리된 기사네요.

냉철한분석가방금 전

흥미로운 주제입니다. une의 향후 전망이 궁금합니다.

진지한에스프레소방금 전

잘 읽었습니다. safetensors 관련 배경 설명이 이해하기 쉬웠습니다. 다른 시각의 분석도 읽어보고 싶습니다.

활발한바람방금 전

읽기 좋은 기사입니다. LLM 관련 데이터가 인상적이었습니다.

바닷가의바람5분 전

Safetensors이 앞으로 어떻게 전개될지 주목해야겠습니다.

맑은날리더5분 전

기사 퀄리티가 좋습니다.

성수의강아지5분 전

une에 대해 처음 접하는 정보가 있었습니다. 좋은 기사 감사합니다.

다정한구름5분 전

safetensors의 전문가 코멘트가 설득력 있었습니다.

산속의여우5분 전

LLM 관련 배경 설명이 이해하기 쉬웠습니다.

조용한기타5분 전

Safetensors에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.

홍대의분석가5분 전

se의 향후 전망이 궁금합니다. 계속 지켜봐야겠습니다.

똑똑한녹차5분 전

이런 시각도 있었군요. une 기사에서 언급된 사례가 흥미로웠습니다.

서울의달5분 전

safetensors에 대해 처음 접하는 정보가 있었습니다. 좋은 기사 감사합니다.

봄날의녹차12분 전

구독 중인데 만족합니다.

가을의돌고래12분 전

Safetensors의 전문가 코멘트가 설득력 있었습니다.

한밤의드럼12분 전

se 관련 용어 설명이 친절해서 좋았습니다.

아침의여우12분 전

une 관련 해외 동향도 궁금합니다.

밝은리더12분 전

좋은 정리입니다. safetensors 주제로 시리즈 기사가 나오면 좋겠습니다.

차분한펭귄12분 전

북마크해두겠습니다. LLM의 향후 전망이 궁금합니다. 좋은 기사 감사합니다.

오후의리더12분 전

잘 읽었습니다. Safetensors 주제로 시리즈 기사가 나오면 좋겠습니다. 주변에도 공유해야겠어요.

아침의분석가12분 전

깔끔한 기사입니다. se이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

꼼꼼한돌고래12분 전

북마크해두겠습니다. une에 대해 주변 사람들과 이야기 나눠볼 만합니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

바람의시민12분 전

safetensors 기사에서 언급된 사례가 흥미로웠습니다.

열정적인여우30분 전

기자님 수고하셨습니다.

재빠른사색가30분 전

참고가 됩니다. Safetensors이 일상에 어떤 영향을 줄지 생각해보게 됩니다.

가을의연구자30분 전

se 기사에서 언급된 사례가 흥미로웠습니다. 생각이 바뀌었습니다.

솔직한달30분 전

흥미로운 주제입니다. une이 앞으로 어떻게 전개될지 주목해야겠습니다.

산속의바이올린30분 전

safetensors이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 잘 정리된 기사네요.

느긋한크리에이터30분 전

출퇴근길에 항상 읽고 있습니다.

유쾌한다람쥐30분 전

이런 시각도 있었군요. Safetensors의 향후 전망이 궁금합니다.

유쾌한여행자30분 전

se 관련 배경 설명이 이해하기 쉬웠습니다.

따뜻한리더30분 전

une이 앞으로 어떻게 전개될지 주목해야겠습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

강남의달1시간 전

매일 여기서 뉴스 보고 있어요.

한밤의리더1시간 전

LLM 관련 통계가 의외였습니다. 나중에 다시 읽어볼 만합니다.

새벽의드리머1시간 전

좋은 정리입니다. Safetensors의 전문가 코멘트가 설득력 있었습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

판교의기타1시간 전

se이 앞으로 어떻게 전개될지 주목해야겠습니다.

신중한펭귄1시간 전

몰랐던 사실을 알게 됐습니다. une 관련 통계가 의외였습니다.

신중한토끼1시간 전

safetensors 주제로 시리즈 기사가 나오면 좋겠습니다.

별빛의기록자1시간 전

LLM이 일상에 어떤 영향을 줄지 생각해보게 됩니다.

맑은날시민1시간 전

Safetensors 관련 배경 설명이 이해하기 쉬웠습니다. 나중에 다시 읽어볼 만합니다.

활발한첼로1시간 전

유익한 기사네요. se 관련 통계가 의외였습니다.

호기심많은시민1시간 전

une 관련 통계가 의외였습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

성수의토끼2시간 전

safetensors 관련 용어 설명이 친절해서 좋았습니다.

오후의라떼2시간 전

LLM에 대해 주변 사람들과 이야기 나눠볼 만합니다. 다른 시각의 분석도 읽어보고 싶습니다.

강남의부엉이2시간 전

Safetensors 관련 배경 설명이 이해하기 쉬웠습니다.

바람의사자2시간 전

se이 일상에 어떤 영향을 줄지 생각해보게 됩니다.

비오는날리더2시간 전

une의 향후 전망이 궁금합니다. 다른 시각의 분석도 읽어보고 싶습니다.

활발한드럼2시간 전

safetensors의 전문가 코멘트가 설득력 있었습니다. 주변에도 공유해야겠어요.

부지런한드리머2시간 전

몰랐던 사실을 알게 됐습니다. LLM 관련 용어 설명이 친절해서 좋았습니다.

느긋한분석가2시간 전

Safetensors에 대해 처음 접하는 정보가 있었습니다. 잘 정리된 기사네요.

카페의해2시간 전

se 주제로 시리즈 기사가 나오면 좋겠습니다.

맑은날에스프레소3시간 전

une 관련 용어 설명이 친절해서 좋았습니다.

겨울의바람3시간 전

safetensors에 대해 처음 접하는 정보가 있었습니다.

저녁의분석가3시간 전

이런 시각도 있었군요. LLM에 대해 더 알고 싶어졌습니다.

다정한판다3시간 전

Safetensors에 대해 처음 접하는 정보가 있었습니다.

차분한강아지3시간 전

읽기 좋은 기사입니다. se이 일상에 어떤 영향을 줄지 생각해보게 됩니다.

바람의드럼3시간 전

une 관련 해외 동향도 궁금합니다. 후속 기사 부탁드립니다.

아침의리더3시간 전

잘 읽었습니다. safetensors에 대해 주변 사람들과 이야기 나눠볼 만합니다.

느긋한리더3시간 전

객관적인 시각이 돋보이는 기사입니다.

용감한달3시간 전

Safetensors 관련 통계가 의외였습니다. 주변에도 공유해야겠어요.

부산의커피3시간 전

흥미로운 주제입니다. se에 대해 더 알고 싶어졌습니다.

용감한구름5시간 전

읽기 좋은 기사입니다. une에 대해 주변 사람들과 이야기 나눠볼 만합니다.

비오는날구름5시간 전

흥미로운 주제입니다. safetensors이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 좋은 기사 감사합니다.

저녁의아메리카노5시간 전

흥미로운 주제입니다. LLM 관련 통계가 의외였습니다.

홍대의다람쥐5시간 전

댓글 보는 재미도 있네요.

꼼꼼한바람5시간 전

유익한 기사네요. se이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 잘 정리된 기사네요.

맑은날독자5시간 전

읽기 좋은 기사입니다. une 관련 데이터가 인상적이었습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

느긋한여우5시간 전

좋은 기사 감사합니다.

봄날의토끼5시간 전

LLM의 향후 전망이 궁금합니다.

해운대의시민5시간 전

읽기 좋은 기사입니다. Safetensors 주제로 시리즈 기사가 나오면 좋겠습니다. 다른 시각의 분석도 읽어보고 싶습니다.

부산의강아지8시간 전

se에 대해 주변 사람들과 이야기 나눠볼 만합니다.

가을의시민8시간 전

une 관련 배경 설명이 이해하기 쉬웠습니다. 후속 기사 부탁드립니다.

카페의사자8시간 전

safetensors 관련 해외 동향도 궁금합니다.

새벽의달8시간 전

몰랐던 사실을 알게 됐습니다. LLM에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 나중에 다시 읽어볼 만합니다.

아침의독자8시간 전

깔끔한 기사입니다. Safetensors 관련 통계가 의외였습니다.

꼼꼼한여행자8시간 전

se 관련 데이터가 인상적이었습니다.

판교의녹차8시간 전

북마크해두겠습니다. une 기사에서 언급된 사례가 흥미로웠습니다. 나중에 다시 읽어볼 만합니다.

가을의사색가8시간 전

safetensors 관련 통계가 의외였습니다. 다른 시각의 분석도 읽어보고 싶습니다.

활발한시민8시간 전

LLM 관련 통계가 의외였습니다.

봄날의비평가8시간 전

핵심만 잘 정리해주시네요.

밝은첼로

이런 시각도 있었군요. se 관련 해외 동향도 궁금합니다.

아침의바이올린

une의 전문가 코멘트가 설득력 있었습니다.

신중한피아노

흥미로운 주제입니다. safetensors에 대해 더 알고 싶어졌습니다.

제주의드리머

LLM에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 주변에도 공유해야겠어요.

겨울의시민

Safetensors 관련 데이터가 인상적이었습니다.

구름위바이올린

se에 대해 더 알고 싶어졌습니다.

가을의바이올린

요즘 이 매체 기사가 제일 읽기 좋아요.

새벽의돌고래

safetensors 관련 통계가 의외였습니다.

느긋한아메리카노

LLM에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.

Más de esta serie

Más en IA y Tecnología

Últimas noticias