본문으로 건너뛰기
← 블로그로 돌아가기
AI모델NOTABLE

Zhipu AI GLM-5 공개744B 오픈소스 모델이 서방 프론티어급에 도전하다

4분 읽기
#Zhipu AI#GLM-5#오픈소스#중국 AI#Huawei#MoE#SWE-bench

중국 AI 스타트업 Zhipu AI(智谱AI)가 2026년 2월 11일, 744B(7,440억) 파라미터 규모의 대형 언어모델 GLM-5를 공개했습니다. MIT 라이선스로 가중치를 완전 공개했고, HuggingFace(zai-org/GLM-5)와 자체 플랫폼 Z.ai를 통해 접근할 수 있습니다. 미국산 칩 없이 Huawei Ascend 칩만으로 학습했다는 점에서 업계의 관심을 끌고 있습니다.


모델 아키텍처와 스펙

GLM-5는 Mixture of Experts(MoE) 아키텍처를 채택했습니다. 전체 파라미터는 744B지만, 추론 시 활성화되는 파라미터는 약 44B입니다. 이전 세대 GLM-4.5(355B 전체 / 32B 활성)에서 큰 폭으로 스케일업되었습니다.

항목GLM-4.5GLM-5
전체 파라미터355B744B
활성 파라미터32B44B
학습 토큰23T28.5T
컨텍스트 윈도우-200K

200K 토큰 컨텍스트 윈도우는 DeepSeek의 Dynamically Sparse Attention(DSA) 메커니즘을 적용해 구현한 것으로 알려져 있습니다. 긴 문서 처리와 에이전트 작업에서 이점이 됩니다.


벤치마크 성능

GLM-5의 벤치마크 수치는 오픈소스 모델 중 최상위권입니다.

벤치마크GLM-5Claude Opus 4.5GPT-5.2
Humanity's Last Exam (도구 사용)50.443.445.5
SWE-bench Verified77.8%--

SWE-bench Verified 77.8%는 실제 소프트웨어 엔지니어링 작업에서의 능력을 나타내는 지표입니다. Zhipu AI는 논리적 추론, 코딩, 에이전트 시스템 분야에서 오픈소스 모델 중 최고 성능을 달성했다고 밝혔습니다.

NxCode와 DigitalApplied 등 복수의 매체가 이 벤치마크 수치를 확인 보도했습니다.


Huawei Ascend 칩 — 미국 칩 없는 학습

가장 주목할 만한 점은 학습 인프라입니다. GLM-5는 10만 장의 Huawei Ascend 910B 칩과 MindSpore 프레임워크를 사용해 학습되었습니다. NVIDIA GPU를 전혀 사용하지 않았습니다.

미국의 대중국 반도체 수출 규제가 강화되는 상황에서, 자국 칩만으로 프론티어급 모델을 학습했다는 것은 기술적 독립성 측면에서 의미가 큽니다. The Decoder는 "미국산 반도체 하드웨어로부터의 완전한 독립을 달성했다"고 보도했습니다.


MIT 라이선스와 가격 정책

GLM-5는 MIT 라이선스로 공개되었습니다. 상업적 사용, 파인튜닝, 재배포가 모두 자유롭습니다. 오픈소스 진영에서 프론티어급 모델이 가장 관대한 라이선스로 풀린 사례 중 하나입니다.

API 가격도 공격적입니다.

항목GLM-5 (Z.ai)Claude Opus 4.6 (비교)
입력$1.00 / 1M 토큰~$5.00 / 1M 토큰
출력$3.20 / 1M 토큰~$25.00 / 1M 토큰

입력 기준 약 5배, 출력 기준 약 8배 저렴합니다. 성능 대비 가격에서 상당한 경쟁력을 갖추고 있습니다.


전망

GLM-5의 등장은 몇 가지 흐름을 확인시켜 줍니다. 첫째, 중국 AI 기업들이 수출 규제에도 불구하고 자체 인프라로 경쟁력 있는 모델을 만들어내고 있다는 점. 둘째, 오픈소스 모델과 상용 모델 사이의 성능 격차가 빠르게 좁혀지고 있다는 점. 셋째, MIT 라이선스 채택으로 개발자 생태계 확보에 적극적이라는 점.

다만 벤치마크 수치와 실제 사용 경험 사이에는 항상 간극이 있습니다. 커뮤니티의 독립적인 평가가 축적되면 GLM-5의 실질적 위치가 더 명확해질 것입니다.


참고

관련 포스트