Empresas de IA compiten por contratar expertos en armas NBQ para prevenir uso indebido
Anthropic y OpenAI reclutan especialistas en armas químicas y explosivos para verificar la seguridad de sus modelos... salarios de hasta $455,000 anuales

- •Anthropic y OpenAI han iniciado la contratación de especialistas en armas químicas y explosivos para prevenir el uso indebido de modelos de IA en la fabricación de armas, con OpenAI ofreciendo salarios de hasta $455,000 anuales.
- •Ambas empresas han reconocido virtualmente que sus modelos han alcanzado un nivel que puede proporcionar ayuda significativa a actores con intenciones ofensivas, evolucionando hacia una etapa de verificación de seguridad mediante especialistas reales en sistemas de armamento.
- •Mientras la respuesta corporativa autónoma se lleva a cabo en medio de un vacío regulatorio internacional, surgen preocupaciones de que el procesamiento mismo de información sensible por parte de sistemas de IA puede crear nuevos riesgos de seguridad.
Grandes empresas de IA inician contratación masiva de expertos en armamento
Las empresas de inteligencia artificial Anthropic y OpenAI han comenzado a reclutar especialistas en armas químicas y defensa contra explosivos para prevenir que sus modelos de IA sean utilizados indebidamente en la fabricación de armas de destrucción masiva (ADM). Según informó la BBC británica a mediados de marzo, Anthropic publicó a través de LinkedIn una oferta de empleo para especialistas en armas químicas y explosivos de alto poder con el objetivo de prevenir el "uso catastrófico indebido (catastrophic misuse)". Los requisitos de calificación incluyen un mínimo de 5 años de experiencia en defensa contra armas químicas o explosivos y conocimientos sobre dispositivos de dispersión radiológica (bombas sucias).
OpenAI también está reclutando investigadores de "riesgos biológicos y químicos" para puestos similares, con salarios ofrecidos de hasta $455,000 dólares (aproximadamente 530 millones de wones). Esto representa casi el doble del rango salarial ofrecido por Anthropic. Ambas empresas han reconocido virtualmente a través de sus ofertas de empleo que sus modelos han alcanzado un nivel en el que pueden proporcionar "ayuda significativa" a actores con intenciones ofensivas.
¿Por qué expertos NBQ ahora?
Este movimiento de contratación va más allá de una simple medida de seguridad preventiva. Refleja la autoevaluación de la industria de que las capacidades de los modelos de IA han superado un umbral crítico específico. Claude de Anthropic y la serie GPT de OpenAI ya están mostrando resultados de nivel experto en la generación de ecuaciones de reacciones químicas complejas, explicación de procedimientos experimentales y presentación de rutas de síntesis de sustancias.
El momento de estas ofertas de empleo es particularmente significativo. Coincide con informes de que el Departamento de Defensa de EE.UU. está desplegando herramientas de IA a una escala sin precedentes en el conflicto armado que lleva tres semanas en Irán. Mientras se acelera el uso militar de la tecnología de IA, también se está materializando el riesgo de uso indebido por actores no estatales o fuerzas hostiles.
La Dra. Stephanie Hare, investigadora tecnológica y copresentadora del programa AI Decoded de la BBC, expresó su preocupación: "¿Es realmente seguro que los sistemas de IA manejen información sensible sobre sustancias químicas y explosivos, incluidas armas radiológicas como las bombas sucias?". Señaló que "no existe ningún tratado internacional o regulación sobre este trabajo, y todo se está realizando en secreto".
¿Qué ha cambiado respecto al pasado?
La estrategia de verificación de seguridad de las empresas de IA está experimentando un cambio cualitativo. Mientras que en el pasado los 'equipos rojos (red teams)' estaban compuestos principalmente por científicos informáticos y eticistas, ahora ha evolucionado a una etapa en la que se reclutan directamente especialistas con experiencia práctica en sistemas de armamento reales.
| Categoría | Enfoque Anterior (2023-2024) | Enfoque Actual (2025-2026) |
|---|---|---|
| Composición de expertos | Científicos informáticos, investigadores de seguridad de IA, eticistas | + Especialistas en armas químicas, expertos en defensa contra explosivos, especialistas en radiación |
| Método de verificación | Pruebas basadas en escenarios virtuales | Intentos de recreación de procedimientos reales de fabricación de armas |
| Alcance de respuesta | Filtrado general de contenido dañino | Bloqueo personalizado por sistema de armas específico |
| Escala organizacional | Personal parcial dentro del equipo de seguridad | Establecimiento de departamentos independientes (previsto) |
| Nivel salarial | $150,000-$250,000 | $230,000-$455,000 |
En particular, el salario extraordinario de hasta $455,000 ofrecido por OpenAI es un indicador de cuán seriamente está tomando la industria de IA este problema. Esto representa 1.5-2 veces el salario típico de un investigador de IA o ingeniero de software, lo que sugiere que se está formando una prima de mercado para esta especialización.
Conflictos en torno a la cooperación con Defensa
Ambas empresas han mostrado posiciones internas contradictorias respecto a las relaciones de cooperación con el Departamento de Defensa. OpenAI modificó su política de uso defensivo en 2024 para abrir la posibilidad de cooperación militar, pero enfrentó resistencia de algunos empleados. Anthropic ha mantenido una posición relativamente cautelosa, pero recientemente se ha formado un vínculo indirecto ya que AWS, su proveedor de infraestructura en la nube, participa en proyectos del Departamento de Defensa.
Aunque no se ha revelado públicamente la fuente específica de las herramientas de IA que actualmente utiliza el ejército estadounidense en el conflicto iraní, según informes de la industria relacionada, se sabe que se están utilizando sistemas de análisis de información basados en modelos de lenguaje grande (LLM) para la planificación operativa. Esto revela la realidad de que las empresas de IA no pueden controlar completamente las rutas de uso militar directo e indirecto de su tecnología.
Dilema tecnológico: cuanta más información se inyecta, mayor es el riesgo
Paradójicamente, la estrategia de fortalecer la seguridad mediante la contratación de expertos conlleva nuevos riesgos. Durante el proceso de construcción de mecanismos de bloqueo inyectando conocimientos relacionados con la fabricación de armas en modelos de IA, esa información puede dejar rastros de alguna forma en los datos de entrenamiento o parámetros del modelo.
El "riesgo del procesamiento mismo de la información" señalado por la Dra. Stephanie Hare se refiere a esto. Hay una diferencia fundamental entre que un modelo "conozca los procedimientos de fabricación de armas químicas pero no responda" y "no los conozca en absoluto". En el primer caso, existe la posibilidad constante de elusión mediante ingeniería de prompts adversariales o técnicas de jailbreak.
Actualmente, no existen tratados o estándares internacionales que regulen el procesamiento de información sensible por parte de sistemas de IA. Los marcos existentes de control de armamentos, como la Convención sobre Armas Químicas (CWC) o el Tratado de No Proliferación Nuclear (TNP), no son adecuados para abordar la naturaleza de doble uso de la tecnología de IA. Los principios de 'IA responsable' establecidos independientemente por cada empresa son la única guía disponible.
[Análisis de IA] Perspectivas e implicaciones futuras
Se anticipan movimientos de estandarización a nivel industrial Es muy probable que dentro de 6-12 meses, las principales empresas de IA desarrollen conjuntamente 'directrices para el procesamiento de información sobre materiales peligrosos'. Dado que ya existen organizaciones de coordinación industrial como Partnership on AI o Frontier Model Forum, se espera que a medida que se acumulen casos de contratación de expertos NBQ, se avance hacia una etapa de compartir mejores prácticas.
Posible intervención gubernamental para llenar el vacío regulatorio Existe la posibilidad de que el Marco de Gestión de Riesgos de IA (AI RMF) del Instituto Nacional de Estándares y Tecnología (NIST) de EE.UU. concrete escenarios de uso indebido de armas. En el caso de la Ley de IA de la Unión Europea (UE), que ya incluye usos relacionados con la seguridad en la categoría de 'IA de alto riesgo', podrían añadirse reglas de procesamiento de información NBQ en la etapa de implementación.
Profundización de la especialización en el mercado laboral de seguridad de IA La fijación salarial de $450,000 por parte de OpenAI presagia el nacimiento de una nueva categoría profesional. Se espera que se acelere el fenómeno de 'reasignación de talento', donde especialistas que trabajaban en ciberseguridad o inteligencia de amenazas se trasladen al área de seguridad de IA. Se anticipa especial preferencia por veteranos militares o egresados de institutos de investigación de defensa.
Continúa el equilibrio entre transparencia y seguridad Las empresas de IA enfrentan el dilema de tener que demostrar externamente la efectividad de sus medidas de seguridad mientras que, al mismo tiempo, revelar mecanismos de defensa específicos podría proporcionar rutas de elusión a los atacantes. Esto plantea la necesidad de un nuevo modelo de gobernanza llamado 'opacidad verificable (verifiable opacity)'. Es probable que se discutan esquemas donde organismos de auditoría de terceros o sistemas de certificación gubernamental actúen como mediadores.
Redefinición de los límites entre tecnología y ética La entrada de expertos NBQ a empresas de IA será una oportunidad para redefinir los límites éticos del desarrollo tecnológico. El enfoque de la discusión se está desplazando de "qué puede hacer la IA" a "qué debe saber la IA". Esta es una pregunta fundamental que en última instancia puede influir en la dirección misma del desarrollo de IA de propósito general.
댓글 (3)
기사 잘 봤습니다. 다른 시각의 분석도 읽어보고 싶네요.
de 관련 기사 잘 읽었습니다. 유익한 정보네요.
IA에 대해 더 알고 싶어졌습니다. 후속 기사 부탁드립니다.
Más de esta serie
Más en IA y Tecnología

영국 정치지도자들, 아동 성착취 혐의에 대한 긴급 조사 촉구

Un robot humanoide que actúa en China tiene cara de niño.

Un jurado estadounidense declara a Meta y Google responsables de la “adicción a las redes sociales”... fallo de compensación de 3.700 millones de wones

El Observatorio japonés de rayos X realiza la primera medición directa del 'viento cósmico' ultrarrápido en la galaxia M82

La NASA selecciona a 24 personas para becas posdoctorales en astrofísica de 2026

Ethereum se encuentra en una encrucijada para "redefinir su identidad" antes de la era de la computación cuántica y la inteligencia artificial
Últimas noticias

"간부 잘 아는데 교통비 좀" 휴가 군인들 돈 뜯은 50대 구속
50대 A씨가 휴가 중인 군인들에게 부대 간부를 아는 척 접근해 돈을 사취

英 옥토퍼스, 이란 전쟁 이후 태양광 판매 50% 증가
이란 전쟁 이후 영국 옥토퍼스의 태양광 판매량 50% 증가

당정 "추경, 지방·취약계층에 더 지원되는 방식으로"
당정이 지방자치단체와 취약계층 중심의 추경 편성 방침 재확인

당정, 석유 최고가격제 손실 보전을 추경에 반영키로
당정이 석유 최고가격제 손실을 추경에 반영하기로 결정

어머니 폭행하고 금팔찌 빼앗은 30대 아들 경찰에 붙잡혀
어머니 폭행 후 금팔찌 빼앗은 30대 남성 체포

아이티 갱단 폭력사태로 10개월간 5천명 이상 사망
아이티에서 지난 10개월간 갱단 폭력으로 5천명 이상 사망

서방 정보당국 "러시아, 우크라이나 전쟁 후 이란에 드론·식량 공급"
서방 정보당국, 러시아의 이란 드론·식량 공급 작업 거의 완료 파악

6년 전 세 살 딸 살해한 30대 친모 구속송치
경찰, 6년 전 세 살 딸 살해 혐의 30대 친모를 구속송치