AI 기업들, 무기 제조 악용 막기 위해 화생방 전문가 채용 경쟁
Anthropic·OpenAI, 모델 안전성 검증 위해 화학무기·폭발물 전문가 영입… 최대 연봉 5억원

- •Anthropic과 OpenAI가 AI 모델의 무기 제조 악용 방지를 위해 화학무기·폭발물 전문가 채용에 나섰으며, OpenAI는 최대 45만 5천 달러 연봉을 제시했다.
- •두 기업 모두 자사 모델이 공격 의도를 가진 이들에게 의미 있는 도움을 줄 수 있는 수준에 도달했음을 사실상 인정하며, 실제 무기 체계 전문가를 통한 안전성 검증 단계로 진화했다.
- •국제 규제 공백 속에서 기업 자율 대응이 이뤄지는 가운데, AI 시스템의 민감 정보 처리 자체가 새로운 보안 위험을 만들 수 있다는 우려가 제기되고 있다.
대형 AI 기업들, 무기 전문가 영입 본격화
인공지능(AI) 기업 Anthropic과 OpenAI가 자사 AI 모델이 대량살상무기(WMD) 제조에 악용되는 것을 방지하기 위해 화학무기 및 폭발물 방어 전문가 채용에 나섰다. 영국 BBC가 3월 중순 보도한 바에 따르면, Anthropic은 링크드인을 통해 "파국적 악용(catastrophic misuse) 방지"를 위한 화학무기·고폭발물 전문가 채용 공고를 게시했다. 지원 자격 요건으로 최소 5년 이상의 화학무기 또는 폭발물 방어 경력과 방사능 확산 장치(더티밤) 관련 지식을 명시했다.
OpenAI 역시 유사한 직무로 "생물학적·화학적 위험" 연구원을 모집하고 있으며, 제시한 연봉은 최대 45만 5천 달러(약 5억 3천만원)에 달한다. 이는 Anthropic이 제시한 연봉 범위의 거의 두 배 수준이다. 두 기업 모두 채용 공고를 통해 자사 모델이 이제 공격 의도를 가진 이들에게 "의미 있는 도움"을 제공할 수 있는 수준에 도달했음을 사실상 인정했다.
왜 지금 화생방 전문가인가
이번 채용 움직임은 단순한 선제적 안전 조치를 넘어선다. AI 모델의 능력이 특정 임계점을 넘었다는 업계의 자체 평가가 반영된 것으로 보인다. Anthropic의 Claude와 OpenAI의 GPT 시리즈는 복잡한 화학 반응식 생성, 실험 절차 설명, 물질 합성 경로 제시 등에서 이미 전문가 수준의 출력을 보이고 있다.
특히 이번 채용 공고가 나온 시점은 의미심장하다. 이란에서 3주째 진행 중인 무력 충돌에서 미 국방부가 전례 없는 규모로 AI 도구를 배치하고 있다는 보도와 시기가 겹친다. AI 기술의 군사적 활용이 가속화되는 동시에, 비국가 행위자나 적대 세력의 악용 위험도 현실화되고 있는 것이다.
기술 연구자이자 BBC AI Decoded 프로그램 공동 진행자인 스테파니 해어(Stephanie Hare) 박사는 "민감한 화학물질 및 폭발물 정보, 더티밤을 포함한 방사능 무기 정보를 AI 시스템이 다루는 것이 과연 안전한가"라며 우려를 표했다. 그는 "이러한 작업에 대한 국제 조약이나 규제가 전혀 없으며, 모든 것이 비공개로 진행되고 있다"고 지적했다.
이전과 무엇이 달라졌나
AI 기업들의 안전성 검증 전략이 질적으로 변화하고 있다. 과거에는 컴퓨터 과학자와 윤리학자 중심의 '레드팀(red team)' 구성이 주를 이뤘다면, 이제는 실제 무기 체계에 대한 실무 경험을 갖춘 전문가를 직접 영입하는 단계로 진화했다.
| 구분 | 기존 접근법 (2023-2024) | 현재 접근법 (2025-2026) |
|---|---|---|
| 전문가 구성 | 컴퓨터과학자, AI 안전 연구자, 윤리학자 | + 화학무기 전문가, 폭발물 방어 전문가, 방사능 전문가 |
| 검증 방식 | 가상 시나리오 기반 테스트 | 실제 무기 제조 절차 재현 시도 |
| 대응 범위 | 일반적 유해 콘텐츠 필터링 | 특정 무기 체계별 맞춤형 차단 |
| 조직 규모 | 안전팀 내 일부 인력 | 독립 부서 신설 (예상) |
| 연봉 수준 | 15만~25만 달러 | 23만~45만 5천 달러 |
특히 OpenAI가 제시한 최대 45만 5천 달러라는 파격적 연봉은 AI 업계가 이 문제를 얼마나 심각하게 받아들이고 있는지를 보여주는 지표다. 이는 일반적인 AI 연구원이나 소프트웨어 엔지니어 연봉의 1.5~2배 수준으로, 해당 전문성에 대한 시장 프리미엄이 형성되고 있음을 시사한다.
국방 협력을 둘러싼 갈등
두 기업 모두 국방부와의 협력 관계를 놓고 내부적으로 상반된 입장을 보여왔다. OpenAI는 2024년 방위 용도 정책을 변경해 군사 협력 가능성을 열었지만, 일부 직원들의 반발에 직면했다. Anthropic은 상대적으로 신중한 입장을 유지해왔으나, 최근 클라우드 인프라 제공업체인 AWS가 국방부 프로젝트에 참여하면서 간접적 연결고리가 형성됐다.
현재 이란 분쟁에서 미군이 사용 중인 AI 도구의 구체적 출처는 공개되지 않았지만, 관련 업계 보도에 의하면 대형 언어 모델(LLM) 기반 정보 분석 시스템이 작전 계획 수립에 활용되고 있는 것으로 알려졌다. 이는 AI 기업들이 자사 기술의 직간접적 군사 활용 경로를 완전히 통제할 수 없는 현실을 드러낸다.
기술적 딜레마: 정보를 주입할수록 커지는 위험
역설적이게도 전문가 채용을 통한 안전성 강화 전략은 새로운 위험을 내포한다. AI 모델에 무기 제조 관련 지식을 주입해 차단 메커니즘을 구축하는 과정에서, 해당 정보가 모델의 학습 데이터나 파라미터에 어떤 형태로든 흔적을 남길 수 있기 때문이다.
스테파니 해어 박사가 지적한 "정보 처리 자체의 위험성"은 이를 가리킨다. 모델이 화학무기 제조 절차를 "알고 있으면서 답변하지 않는 것"과 "애초에 모르는 것" 사이에는 근본적 차이가 있다. 전자의 경우 적대적 프롬프트 엔지니어링이나 탈옥(jailbreak) 기법을 통해 우회될 가능성이 상존한다.
현재 국제 사회에는 AI 시스템의 민감 정보 처리를 규율하는 조약이나 표준이 부재하다. 화학무기금지협약(CWC)이나 핵확산금지조약(NPT) 같은 기존 군비통제 체계는 AI 기술의 이중용도(dual-use) 특성을 다루기에 적합하지 않다. 각 기업이 자체적으로 수립한 '책임 있는 AI' 원칙만이 유일한 가이드라인인 상황이다.
[AI 분석] 향후 전망과 시사점
산업 차원의 표준화 움직임 예상
향후 6~12개월 내에 주요 AI 기업들이 공동으로 '위험물질 정보 처리 가이드라인'을 마련할 가능성이 높다. 이미 Partnership on AI나 Frontier Model Forum 같은 업계 협의체가 존재하는 만큼, 화생방 전문가 채용 사례가 축적되면 베스트 프랙티스 공유 단계로 진입할 것으로 보인다.
규제 공백 메우기 위한 정부 개입 가능화
미국 국립표준기술연구소(NIST)의 AI 위험 관리 프레임워크(AI RMF)가 무기 악용 시나리오를 구체화할 가능성이 있다. 유럽연합(EU) AI 법안의 경우 이미 '고위험 AI' 범주에 안보 관련 용도를 포함하고 있어, 집행 단계에서 화생방 정보 처리 규칙이 추가될 수 있다.
AI 안전 인력 시장의 전문화 심화
OpenAI의 45만 달러 연봉 책정은 새로운 직업군의 탄생을 예고한다. 기존 사이버 보안이나 위협 인텔리전스 분야에서 활동하던 전문가들이 AI 안전 영역으로 이동하는 '인재 재배치' 현상이 가속화될 전망이다. 특히 군 복무 경력자나 국방 연구소 출신이 선호될 것으로 예상된다.
투명성과 보안 사이의 줄타기 지속
AI 기업들은 안전 조치의 효과성을 대외적으로 입증해야 하는 동시에, 구체적인 방어 메커니즘을 공개할 경우 공격자에게 우회 경로를 제공할 수 있다는 딜레마에 직면해 있다. 이는 '검증 가능한 불투명성(verifiable opacity)'이라는 새로운 거버넌스 모델의 필요성을 제기한다. 제3자 감사 기관이나 정부 인증 체계가 중재자 역할을 수행하는 방안이 논의될 가능성이 높다.
기술-윤리 경계의 재정의
화생방 전문가의 AI 기업 유입은 기술 개발의 윤리적 경계를 다시 그리는 계기가 될 것이다. "AI가 무엇을 할 수 있는가"에서 "AI가 무엇을 알아야 하는가"로 논의의 초점이 이동하고 있다. 이는 궁극적으로 범용 AI의 개발 방향 자체에 영향을 미칠 수 있는 근본적 질문이다.
AD
인아티클 광고
댓글 (4)
로그인하고 댓글을 작성하세요
정말 흥미로운 기사입니다. AI 기술의 발전 속도가 놀랍습니다.
동의합니다. 특히 최근 멀티모달 AI의 발전이 눈에 띕니다.
이 분야에 대한 심층 분석 기사가 더 필요합니다. 좋은 기사 감사합니다.
AI 윤리에 대한 논의도 함께 다뤄졌으면 좋겠습니다.


