Anthropic vs 미 국방부AI 기업이 정부를 상대로 소송을 건 이유
무슨 일이 일어났나
2026년 3월 5일, 미 국방부(Pentagon)가 Anthropic을 **공급망 위험(supply-chain risk)**으로 공식 지정했습니다. 이 지정은 통상적으로 외국 적대국과 연관된 기업에 적용되는 것으로, AI 기업에 적용된 것은 전례가 없습니다.
3월 9일, Anthropic은 캘리포니아와 워싱턴 DC 법원에 연방 소송을 제기했습니다. NPR, CNN, Bloomberg, TechCrunch 등 주요 매체가 일제히 보도했습니다.
왜 이런 일이 벌어졌나
갈등의 핵심은 계약 조건입니다. 국방부는 Anthropic의 Claude를 **"모든 합법적 목적"**에 사용할 수 있기를 원했습니다. Anthropic은 두 가지 조건을 요구했습니다:
- 미국 시민 대상 대규모 감시에 사용 금지
- 자율 무기에 사용 금지
협상이 결렬되자 국방장관 Pete Hegseth가 공급망 위험 지정을 발동했고, 같은 날 OpenAI는 국방부와 별도 계약을 체결했습니다.
양측의 주장
국방부 입장:
- "국가 안보 비상사태에서 민간 기업이 사용 방법을 지시할 수 없다"
- AI 기술은 국방의 핵심 자산이며, 제한 없는 접근이 필요
Anthropic 입장:
- "어떤 연방법도 이 조치를 승인하지 않는다"
- 공급망 위험 지정은 의회가 정한 절차를 따르지 않았다
- AI 기술의 오용 방지는 기업의 책임
Axios에 따르면, Anthropic은 법원에 공급망 위험 지정의 취소, 집행 금지, 그리고 연방 기관들이 관련 지시를 철회할 것을 요청했습니다.
비즈니스 영향
Anthropic CFO에 따르면, 이 조치로 2026년 매출이 수십억 달러 감소할 수 있습니다. 국방부 계약뿐 아니라, 국방부와 거래하는 모든 기업이 Claude 사용을 중단해야 하기 때문입니다.
다만 Microsoft는 Azure, M365, GitHub 등에서 Anthropic 제품을 국방부 이외 고객에게 계속 제공할 수 있다고 밝혔습니다.
업계 반응
이 사건은 AI 업계에 명확한 분기점을 만들었습니다:
- OpenAI: 국방부와 즉시 계약 체결 — "실용적 접근"
- Anthropic: 사용 제한 고수 + 소송 — "윤리적 원칙 고수"
- Google, Meta: 아직 공식 입장 없음
전망
이 소송의 결과는 AI 산업 전체에 선례가 됩니다. AI 기업이 자사 기술의 사용처를 제한할 권리가 있는지, 정부가 "국가 안보"를 이유로 그 제한을 무력화할 수 있는지가 법적으로 판단됩니다.
개인적으로 이 사건은 AI 윤리가 추상적 논의에서 벗어나 실질적 법적 분쟁으로 전환된 첫 번째 대형 사건이라고 봅니다. Anthropic이 승소하면 AI 기업의 자율성이 강화되고, 패소하면 정부의 AI 접근권이 대폭 확대됩니다. 어느 쪽이든 AI 거버넌스의 기준점이 될 것입니다.
참고