Apple-Google AI 빅딜Gemini가 Siri의 두뇌가 된다
Apple과 Google, 다년 AI 파트너십 공식 발표
2026년 1월 12일, Apple과 Google이 다년(multiyear) AI 파트너십을 공식 발표했다. CNBC, TechCrunch 등 주요 매체가 일제히 보도한 이 딜의 핵심은 단순하다 — Google의 Gemini 모델과 클라우드 기술을 Apple Intelligence의 기반으로 활용한다는 것이다.
Bloomberg에 따르면, Apple은 이 계약에 연간 약 10억 달러를 지불할 계획이다. 양사 모두 금액을 공식 확인하지는 않았다. 다만 이 규모는 과거 Google이 Safari 기본 검색엔진 자리를 위해 Apple에 지불하던 연간 200억 달러와는 방향이 정반대다 — 이번에는 Apple이 Google에 돈을 낸다.
Apple은 이전에 OpenAI, Anthropic 등 경쟁사 기술도 테스트한 것으로 알려졌다. 비독점(non-exclusive) 계약이므로 기존 OpenAI와의 협력 관계도 유지된다.
1.2조 파라미터 모델이 Siri를 바꾸는 방식
Bloomberg이 2025년 11월 보도한 바에 따르면, Apple은 Google의 1.2조(1.2 trillion) 파라미터 모델을 Siri 개편에 활용할 예정이다. 현재 Apple Intelligence에 사용 중인 모델이 약 1,500억 파라미터인 점을 감안하면, 파라미터 규모만으로 약 8배 증가한 셈이다.
구체적인 변화를 보면, 커스텀 Gemini 시스템이 Siri의 요약(summarizer)과 플래너(planner) 기능을 담당하게 된다. 복잡한 멀티앱 쿼리에서의 성공률이 기존 58%에서 92%로 대폭 개선됐다는 테스트 결과도 나왔다. "내일 비행기 시간 확인해서 캘린더에 넣어줘" 같은 다단계 요청을 실제로 처리할 수 있게 된다는 의미다.
9to5Mac에 따르면, 이 파트너십의 첫 결과물은 iOS 26.4와 함께 2026년 3-4월경 공개될 예정이다.
프라이버시 구조 — Gemini가 있되, Google에 데이터는 없다
Apple이 이 딜에서 가장 강조하는 부분은 프라이버시다. Gemini 모델은 Apple의 Private Cloud Compute(PCC) 인프라 위에서 실행된다. 사용자 데이터가 Google 서버로 전송되지 않는 구조다. Gemini가 iPhone에 직접 탑재되는 것도 아니다.
2026년 1월 29일, Tim Cook은 AppleInsider 인터뷰에서 "Google Gemini 파트너십으로 인해 Apple의 프라이버시 원칙이 변하지 않을 것"이라고 직접 언급했다. 모델은 Google 것이지만, 실행 환경과 데이터 처리는 전적으로 Apple이 통제한다는 설명이다.
다만 우려도 존재한다. 프라이버시 전문가들은 원시 데이터가 보호되더라도, Siri가 Google의 바이어스와 안전 필터를 "상속"하게 되는 점을 지적한다. iPhone의 인지적 프레임워크를 사실상 제3자에게 맡기는 셈이라는 비판이다. 2026년 2월 초 Google CEO Sundar Pichai가 Google을 Apple의 "선호 클라우드 공급자"라고 지칭하면서, 향후 고급 Siri 기능이 Apple PCC를 우회해 Google TPU에서 직접 실행될 가능성에 대한 우려도 나왔다.
업계 판도에 미치는 영향
이번 딜은 AI 인프라 시장의 구도를 재편하는 신호탄이다.
Google 입장에서는 소비자 접점 확보가 핵심이다. Gemini 모델의 성능은 벤치마크에서 증명됐지만, 소비자 시장에서의 존재감은 ChatGPT에 비해 약했다. 전 세계 20억 대 이상의 Apple 기기에 Gemini가 탑재되면 상황이 달라진다.
Apple 입장에서는 자체 AI 모델 개발의 한계를 인정한 것이나 다름없다. Apple은 자체 LLM 연구를 계속 진행하고 있지만, Siri 개편이라는 긴급한 과제 앞에서 실용적 선택을 한 것으로 보인다.
OpenAI와 Anthropic에게는 경쟁 압력이 커졌다. Apple이 비독점 계약을 유지하고 있지만, Gemini가 기본 엔진 자리를 차지하면 다른 모델의 역할은 보조적으로 축소될 수 있다.
전망
여기서부터는 필자의 시각이다.
이 파트너십이 Siri를 실질적으로 "쓸 만한" 음성 비서로 만들지는 iOS 26.4 출시 이후에나 판단할 수 있다. 파라미터 수가 8배 늘었다고 사용자 경험이 8배 좋아지는 건 아니다. 핵심은 멀티스텝 태스크 처리 — 메시지 확인, 예약 변경, 정보 종합 같은 실생활 시나리오에서 실제로 신뢰할 수 있느냐다.
개인적으로 주목하는 건 프라이버시 구조의 지속가능성이다. 모델 규모가 커질수록 PCC 운영 비용도 급증한다. 1.2조 파라미터 모델을 Apple 자체 클라우드에서 추론하는 비용이 어느 시점에서 Google 클라우드 직접 연결보다 비효율적이 된다면, 현재의 "데이터는 Apple에, 모델은 Google에" 구조가 흔들릴 수 있다. 그때가 진짜 분수령이 될 것이다.
참고
- CNBC — Apple picks Google's Gemini to run AI-powered Siri
- TechCrunch — Google's Gemini to power Apple's AI features
- Bloomberg — Apple Plans to Use 1.2 Trillion Parameter Google Gemini Model
- 9to5Mac — Apple to unveil results of Google Gemini partnership
- AppleInsider — Tim Cook: Apple won't change privacy rules