VAKRA Benchmark: Diseccionando los Modos de Fallo de los Agentes de IA
Un entorno de evaluación ejecutable con más de 8,000 APIs en 62 dominios expone debilidades críticas en los principales modelos de IA actuales

- •VAKRA es un benchmark ejecutable de agentes de IA con más de 8,000 APIs en 62 dominios.
- •La mayoría de los modelos de IA líderes obtuvieron puntuaciones bajas en flujos de trabajo de múltiples pasos de 3 a 7 razonamientos.
- •El fallo de inicialización, la acumulación de errores y la confusión en la selección de herramientas fueron identificados como los principales patrones de fallo.
¿Qué tan bien resisten los agentes de IA en el mundo real?
Un nuevo benchmark ha surgido como referencia significativa en la evaluación de agentes de inteligencia artificial (IA). VAKRA, introducido a través del blog de Hugging Face, es un benchmark ejecutable basado en herramientas diseñado para simular entornos empresariales, revelando que la mayoría de los modelos de IA líderes tienen serias dificultades para completar flujos de trabajo de múltiples pasos. Construido sobre más de 8,000 APIs alojadas localmente respaldadas por bases de datos reales que abarcan 62 dominios, VAKRA va más allá de las pruebas de conocimiento simples para medir las capacidades prácticas de uso de herramientas de los agentes y sus habilidades de razonamiento composicional.
¿Por qué los benchmarks existentes son insuficientes?
Los métodos de evaluación de IA convencionales se han centrado principalmente en habilidades aisladas: resolver problemas matemáticos, escribir código, resumir texto. Pero los entornos empresariales reales demandan algo completamente diferente. Los agentes deben llamar a múltiples APIs en secuencia, recuperar información de documentos no estructurados y tomar decisiones bajo restricciones expresadas en lenguaje natural.
VAKRA fue diseñado para cerrar esta brecha. Presenta tareas que requieren que los agentes ejecuten cadenas de razonamiento de 3 a 7 pasos que combinan llamadas a APIs estructuradas con recuperación de datos no estructurados. Un diferenciador clave es que analiza trazas de ejecución completas, evaluando no solo si un agente llegó a la respuesta correcta, sino cómo lo hizo.
Cuatro capacidades principales y estructura de tareas
VAKRA organiza las tareas de evaluación en torno a cuatro ejes de capacidad.
Capacidad 1: Encadenamiento de APIs usando APIs de Business Intelligence
Esto incluye 2,077 instancias de prueba en 54 dominios, usando herramientas de las colecciones SLOT-BIRD y SEL-BIRD. Los agentes deben ejecutar entre 1 y 12 llamadas a herramientas secuenciales para llegar a la respuesta final. Por ejemplo, responder "¿Qué equipo de fútbol tiene una velocidad de juego de construcción de 31, dribling de 53 y pase de 32?" requiere una cadena de API de 5 pasos precisa: inicialización de datos → tres pasos de filtrado → extracción del nombre del equipo. La respuesta correcta era el FC Barcelona.
La colección SLOT-BIRD proporciona 7 herramientas genéricas de manipulación de datos, mientras que SEL-BIRD la extiende con funciones más especializadas. Cada instancia tiene en promedio 4 funciones get.
Servidor MCP y arquitectura eficiente de transferencia de datos
Los servidores MCP (Model Context Protocol) que soportan esta tarea incluyen una herramienta especial: get_data(tool_universe_id=id). Los agentes deben llamarla primero para inicializar la fuente de datos. La herramienta devuelve solo una vista previa ligera de los datos, almacenando el conjunto de datos completo en el servidor para evitar transferencias de datos grandes, una elección de diseño deliberada para prevenir la ineficiencia.
Rendimiento de los modelos: ¿Por qué las puntuaciones son tan bajas?
Según informes del sector, los principales modelos de lenguaje grande (LLM) están teniendo un rendimiento deficiente en VAKRA en general. Esto representa un desafío fundamentalmente diferente a la simple pregunta-respuesta o generación de código. Se han identificado tres patrones de fallo principales.
Primero, fallo de inicialización: los agentes intentan usar herramientas de manipulación de datos sin llamar primero a get_data, o pasan un tool_universe_id incorrecto.
Segundo, acumulación de errores en múltiples pasos: los errores en las etapas iniciales de una cadena de múltiples pasos se propagan, resultando en una respuesta final incorrecta.
Tercero, confusión en la selección de herramientas: la coexistencia de herramientas con nombres similares en SLOT-BIRD y SEL-BIRD lleva frecuentemente a los agentes a seleccionar la herramienta incorrecta.
Hilo histórico: La evolución de la evaluación de agentes de IA
- 2020–2022: Benchmarks basados en conocimiento como MMLU y HumanEval. Pregunta única, respuesta única.
- 2023: El auge de AutoGPT y LangChain impulsó el interés en agentes que usan herramientas.
- 2024: Benchmarks de agentes de múltiples pasos como AgentBench y τ-bench se multiplicaron.
- 2025–2026: La evaluación evolucionó hacia benchmarks ejecutables con APIs reales. VAKRA lidera esta tendencia.
| Generación | Benchmarks representativos | Método | Limitación |
|---|---|---|---|
| 1ª Gen (2020–2022) | MMLU, HumanEval | Q&A único, código | Desconectado del uso real |
| 2ª Gen (2023–2024) | ToolBench, AgentBench | Llamadas a herramientas, multipasos | Entornos simulados |
| 3ª Gen (2025–2026) | VAKRA, τ-bench | APIs ejecutables, BDs reales | Alta complejidad de evaluación |
Comparación con benchmarks competidores
| Atributo | VAKRA | AgentBench | ToolBench | τ-bench |
|---|---|---|---|---|
| Número de APIs | 8,000+ | Limitado | 16,000+ | Moderado |
| Número de dominios | 62 | 8 | Muchos | Limitado |
| Entorno ejecutable | Sí | Parcial | No | Sí |
| Integración doc + API | Sí | No | No | Parcial |
| Profundidad de cadena | 3–7 pasos | 1–3 pasos | 1–2 pasos | Varía |
[Análisis de expertos] Perspectivas e implicaciones
Las vulnerabilidades estructurales en los agentes expuestas por VAKRA es probable que no se resuelvan a corto plazo. Se espera que el entrenamiento de agentes basado en aprendizaje por refuerzo (RL) se expanda, usando el éxito o fracaso en el uso de herramientas como señal de recompensa. Los benchmarks ejecutables tienen alta probabilidad de convertirse en el nuevo estándar, y las capas de orquestación de agentes ganarán importancia, con arquitecturas donde múltiples agentes colaboran o un módulo de validación separado verifica los pasos intermedios.
El leaderboard de VAKRA está actualmente abierto para envíos. La competencia por las capacidades del mundo real de los agentes de IA ha entrado en una nueva fase.
댓글 (62)
구독 중인데 만족합니다.
Benchmark:의 향후 전망이 궁금합니다. 주변에도 공유해야겠어요.
잘 읽었습니다. los에 대해 더 알고 싶어졌습니다. 좋은 기사 감사합니다.
잘 읽었습니다. AI-에이전트이 앞으로 어떻게 전개될지 주목해야겠습니다.
VAKRA 관련 배경 설명이 이해하기 쉬웠습니다.
요즘 이 매체 기사가 제일 읽기 좋아요.
los이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
댓글 보는 재미도 있네요.
VAKRA의 전문가 코멘트가 설득력 있었습니다. 나중에 다시 읽어볼 만합니다.
Benchmark: 관련 배경 설명이 이해하기 쉬웠습니다. 계속 지켜봐야겠습니다.
잘 읽었습니다. los의 전문가 코멘트가 설득력 있었습니다. 잘 정리된 기사네요.
AI-에이전트이 앞으로 어떻게 전개될지 주목해야겠습니다.
북마크해두겠습니다. VAKRA에 대해 주변 사람들과 이야기 나눠볼 만합니다.
Benchmark: 관련 해외 동향도 궁금합니다.
다양한 주제를 다뤄주셔서 좋습니다.
AI-에이전트에 대해 처음 접하는 정보가 있었습니다. 다른 시각의 분석도 읽어보고 싶습니다.
좋은 정보 감사합니다.
몰랐던 사실을 알게 됐습니다. Benchmark:에 대해 더 알고 싶어졌습니다.
los 관련 해외 동향도 궁금합니다.
좋은 정리입니다. AI-에이전트 관련 통계가 의외였습니다. 좋은 기사 감사합니다.
유익한 기사네요.
Benchmark:에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.
los 관련 배경 설명이 이해하기 쉬웠습니다.
몰랐던 사실을 알게 됐습니다. AI-에이전트이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 전문가 의견도 더 듣고 싶습니다.
VAKRA 관련 해외 동향도 궁금합니다.
정리가 깔끔하네요.
los의 향후 전망이 궁금합니다.
AI-에이전트이 일상에 어떤 영향을 줄지 생각해보게 됩니다.
북마크해두겠습니다. VAKRA의 향후 전망이 궁금합니다.
Benchmark:의 전문가 코멘트가 설득력 있었습니다. 좋은 기사 감사합니다.
다른 기사도 기대하겠습니다.
AI-에이전트의 향후 전망이 궁금합니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
북마크해두겠습니다. VAKRA이 앞으로 어떻게 전개될지 주목해야겠습니다.
Benchmark:이 앞으로 어떻게 전개될지 주목해야겠습니다.
los에 대해 처음 접하는 정보가 있었습니다.
AI-에이전트에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
VAKRA 관련 통계가 의외였습니다. 좋은 기사 감사합니다.
Benchmark: 관련 통계가 의외였습니다. 나중에 다시 읽어볼 만합니다.
잘 읽었습니다. los 관련 데이터가 인상적이었습니다.
AI-에이전트에 대해 주변 사람들과 이야기 나눠볼 만합니다.
좋은 정리입니다. VAKRA 관련 데이터가 인상적이었습니다.
Benchmark: 관련 배경 설명이 이해하기 쉬웠습니다.
깔끔한 기사입니다. los 관련 해외 동향도 궁금합니다. 다른 시각의 분석도 읽어보고 싶습니다.
AI-에이전트 관련 데이터가 인상적이었습니다. 후속 기사 부탁드립니다.
VAKRA에 대해 더 알고 싶어졌습니다.
몰랐던 사실을 알게 됐습니다. Benchmark: 기사에서 언급된 사례가 흥미로웠습니다. 잘 정리된 기사네요.
좋은 기사 감사합니다.
흥미로운 주제입니다. AI-에이전트에 대해 처음 접하는 정보가 있었습니다. 계속 지켜봐야겠습니다.
참고가 됩니다. VAKRA 관련 데이터가 인상적이었습니다.
잘 보고 있습니다.
참고가 됩니다. los 기사에서 언급된 사례가 흥미로웠습니다.
기사 잘 읽었습니다.
북마크해두겠습니다. VAKRA 관련 용어 설명이 친절해서 좋았습니다.
몰랐던 사실을 알게 됐습니다. Benchmark: 주제로 시리즈 기사가 나오면 좋겠습니다.
읽기 좋은 기사입니다. los 기사에서 언급된 사례가 흥미로웠습니다.
AI-에이전트 관련 용어 설명이 친절해서 좋았습니다. 후속 기사 부탁드립니다.
VAKRA 관련 용어 설명이 친절해서 좋았습니다. 주변에도 공유해야겠어요.
Benchmark:의 향후 전망이 궁금합니다. 생각이 바뀌었습니다.
잘 읽었습니다. los의 전문가 코멘트가 설득력 있었습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.
이런 시각도 있었군요. AI-에이전트에 대해 처음 접하는 정보가 있었습니다.
깔끔한 기사입니다. VAKRA에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 좋은 기사 감사합니다.
몰랐던 사실을 알게 됐습니다. Benchmark:이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 전문가 의견도 더 듣고 싶습니다.
Más en IA y Tecnología
Últimas noticias

ICIJ investiga las estrategias de precios y patentes de Merck con Keytruda
El ICIJ revela las estrategias de precios y patentes de Merck con Keytruda en la investigación Cancer Calculus.

Entra en vigor la tregua de 10 días entre Israel y Líbano; la ONU espera que abra negociaciones
Un alto el fuego de 10 días entre Israel y Líbano entró en vigor el 17 de abril a medianoche.

JWST, 성간 혜성 3I/ATLAS에서 메테인 최초 검출…외계 행성계 단서 포착
JWST가 성간 혜성 3I/ATLAS에서 메테인을 최초 직접 검출, 외계 행성계 내부 조성 단서 확보.

달러 패권 흔들린다…옐런·경제학자들 잇따라 경고
옐런 전 재무장관, 트럼프의 연준 압박을 '바나나 공화국'식이라 비판.

IMF, 7년 만에 베네수엘라와 관계 재개…49억 달러 동결 해제 기대
IMF가 2019년 이후 중단됐던 베네수엘라와의 공식 관계를 7년 만에 재개했다.

Los caricaturistas de EE.UU. retratan la semana política en Washington
Los caricaturistas políticos de todo EE.UU. documentan la era mediante sátira semanal.

IMF, 7년 만에 베네수엘라와 관계 재개…49억 달러 동결 해제 가능성
IMF가 7년 만에 베네수엘라와 공식 협력을 재개하기로 결정했다.

Cuando la jungla devoró el hormigón: la paradoja del Conservatorio Barbican de Londres
El fotógrafo Altrath capta en una nueva serie la paradoja espacial del Conservatorio Barbican de Londres.





