#QuitGPTOpenAI 군사 계약이 촉발한 AI 업계 최대 반란
295% 삭제 급증
2월 28일, OpenAI가 미국 국방부(트럼프 행정부 하에서 '전쟁부'로 개칭)와의 계약을 발표했습니다. 그날 ChatGPT 모바일 앱의 미국 내 삭제 건수가 전일 대비 295% 급증했습니다.
TechCrunch에 따르면, ChatGPT의 평소 일일 삭제율 변동은 약 9%였습니다. 295%는 완전히 다른 차원의 수치입니다.
1점짜리 리뷰는 775% 폭증했고, #QuitGPT 해시태그 아래 250만 명이 ChatGPT 탈퇴를 선언했습니다.
Claude의 반사이익
같은 시기, Anthropic은 국방부 거래를 거부했다고 밝혔습니다. "AI가 미국인을 감시하거나 완전 자율 무기에 사용되는 조건에 동의할 수 없었다"는 이유입니다.
결과는 즉각적이었습니다. Claude의 미국 내 다운로드가 2월 27일 37%, 28일 51% 증가했습니다. TechRadar에 따르면, Claude가 Apple US App Store에서 처음으로 ChatGPT를 추월했습니다.
군사 계약 하나가 AI 앱 시장의 판도를 바꾼 셈입니다.
Sam Altman의 후회
Windows Central에 따르면, Sam Altman은 이 거래가 "기회주의적이고 허술해 보였다"고 인정했습니다. 사후적으로 실수를 시인한 것입니다.
문제의 핵심은 OpenAI의 정체성 혼란에 있습니다. "안전한 AGI" 개발을 미션으로 내세웠던 비영리 출발 기업이, 군사 계약을 체결하면서 사용자들의 신뢰 기반 자체가 흔들린 것입니다.
삭제 수치가 장기 이탈로 이어질지는 아직 불확실합니다. 다만 브랜드 이미지 훼손은 이미 발생했습니다.
사용자 신뢰가 비즈니스를 결정한다
이 사건은 AI 기업에게 명확한 교훈을 줍니다. 사용자 신뢰는 기술력만큼이나 중요한 경쟁 자산입니다.
Anthropic이 군사 계약을 거부한 것이 윤리적 결정인지, 전략적 결정인지는 알 수 없습니다. 결과적으로는 둘 다였습니다. 윤리적 포지셔닝이 직접적인 시장 점유율 변동으로 이어진 첫 번째 사례가 되었습니다.
AI 도구 선택에서 가격과 성능 외에 "이 기업이 내 데이터와 기술을 어디에 쓰는가"가 실질적 변수로 떠오르고 있습니다.
참고