LTX 2.3오픈소스 AI가 4K 50fps 비디오를 만드는 시대
4K 50fps, 오디오까지 한 번에
이스라엘의 Lightricks가 LTX 2.3을 오픈소스로 공개했습니다. 22B(220억) 파라미터 규모의 비디오 생성 모델로, 텍스트 프롬프트 하나로 4K 해상도, 50fps 비디오와 동기화된 오디오를 단일 패스에서 생성합니다.
기존 비디오 AI 모델들이 해상도와 프레임레이트 사이에서 트레이드오프를 강요했다면, LTX 2.3은 둘 다 잡았습니다. 게다가 오디오 싱크까지 지원하니 후처리 단계가 하나 줄어드는 셈입니다.
경쟁 모델과 비교
현재 비디오 생성 AI 시장에서 주요 모델들을 비교하면 LTX 2.3의 포지션이 명확합니다.
| 모델 | 개발사 | 최대 해상도 | 프레임레이트 | 오디오 동기화 | 오픈소스 |
|---|---|---|---|---|---|
| LTX 2.3 | Lightricks | 4K | 50fps | 지원 | 예 |
| Sora | OpenAI | 1080p | 24fps | 미지원 | 아니오 |
| Veo 2 | 4K | 24fps | 미지원 | 아니오 | |
| Gen-3 Alpha | Runway | 1080p | 24fps | 미지원 | 아니오 |
Sora와 Veo가 닫힌 API로만 제공되는 동안, LTX 2.3은 모델 가중치를 완전히 공개했습니다. 로컬 환경에서 돌릴 수 있다는 뜻이고, 파인튜닝도 가능합니다.
왜 오픈소스 비디오 AI가 중요한가
텍스트 LLM 분야에서는 이미 오픈소스가 프론티어급에 도달했습니다(MiniMax M2.5 등). 하지만 비디오 생성은 오픈소스가 크게 뒤처져 있었습니다. 모델 크기가 크고, 학습에 필요한 비디오 데이터와 컴퓨팅 비용이 엄청나기 때문입니다.
LTX 2.3은 이 격차를 상당 부분 좁혔습니다. 독립 크리에이터나 소규모 팀이 고품질 비디오를 생성할 수 있게 되면, 콘텐츠 제작의 진입 장벽이 한 단계 더 낮아집니다. Lightricks는 Facetune으로 유명한 회사인데, 모바일 이미지 편집에서 축적한 노하우를 비디오 AI에 적용한 것으로 보입니다.
전망
오픈소스 비디오 AI의 4K 도달은 상징적인 이벤트입니다. 텍스트 → 이미지 → 비디오 순서로 오픈소스가 클로즈드 모델을 따라잡는 패턴이 반복되고 있습니다.
다만 22B 파라미터는 로컬에서 돌리기엔 꽤 무겁습니다. 실질적으로 활용하려면 클라우드 GPU가 필요할 것이고, 양자화 버전이나 경량 모델이 나와야 대중화가 가능할 것입니다. 그래도 "4K 비디오를 생성하는 오픈소스 모델이 존재한다"는 사실 자체가 6개월 전만 해도 상상하기 어려웠습니다.
참고