본문으로 건너뛰기
← 뉴스 목록으로
CRITICAL정보유출

Chat & Ask AI, 3억 건 메시지 유출Firebase 설정 오류가 부른 대형 사고

6분 읽기
#Chat & Ask AI#데이터유출#Firebase#클라우드보안#AI챗봇

무슨 일이 일어났나

Google Play와 App Store에서 5,000만 다운로드를 기록한 인기 AI 챗봇 앱 Chat & Ask AI에서 대규모 데이터 유출이 발생했습니다. 약 2,500만 사용자의 3억 건 메시지가 외부에 노출된 것으로 확인되었습니다. 보안 연구원이 2026년 2월 9일 이 문제를 발견했으며, 원인은 Firebase 데이터베이스의 보안 설정 미비였습니다.

Firebase에 별도의 인증 규칙이 적용되지 않아 인터넷에 접속할 수 있는 누구든 데이터베이스에 직접 접근할 수 있는 상태였습니다. 사용자가 AI 챗봇과 주고받은 대화 내용이 암호화되지 않은 채 그대로 노출되었습니다. 앱의 인기와 사용자 규모를 고려하면 피해 범위가 상당히 넓습니다.

Firebase 설정 오류란

Firebase는 Google이 제공하는 클라우드 백엔드 서비스입니다. 앱 개발자가 별도의 서버를 구축하지 않고도 데이터베이스, 인증, 파일 저장 등의 기능을 사용할 수 있게 해 줍니다. 비유하자면, 앱이 사용자 데이터를 보관하는 금고 역할을 합니다.

문제는 이 금고에 자물쇠를 걸지 않으면 누구나 열어볼 수 있다는 점입니다. Firebase는 기본적으로 **보안 규칙(Security Rules)**을 개발자가 직접 설정해야 합니다. 이 규칙이 없거나 잘못 설정되면, 데이터베이스 URL만 알면 외부에서 인증 없이 모든 데이터를 읽고 쓸 수 있습니다.

이번 Chat & Ask AI 사건도 정확히 이 패턴입니다. 개발 단계에서 테스트를 위해 보안 규칙을 열어둔 뒤, 운영 환경에서도 그대로 배포한 것으로 추정됩니다. 이런 유형의 실수는 반복적으로 발생하고 있습니다. 2024년부터 2026년까지 Firebase 설정 오류로 인한 데이터 유출 사례가 꾸준히 보고되고 있으며, 그중 상당수가 모바일 앱에서 발생했습니다.

Firebase 설정 오류는 고도의 해킹 기술이 필요하지 않습니다. 공개된 도구로 Firebase 데이터베이스의 접근 가능 여부를 자동으로 스캔할 수 있기 때문에, 설정이 열려 있으면 발견되는 것은 시간 문제입니다.

나에게 어떤 영향이 있는가

AI 챗봇의 특성상, 사용자는 일상적인 질문부터 건강 상담, 업무 관련 내용, 개인적인 고민까지 다양한 정보를 입력합니다. 이번 유출로 이런 대화 내용이 그대로 노출되었을 가능성이 있습니다. 단순한 계정 정보 유출과는 성격이 다릅니다.

AI 앱은 사용자가 입력한 내용을 서버에 저장하는 경우가 많습니다. 대화 기록을 유지하기 위해서이기도 하고, 서비스 개선을 위한 데이터 수집 목적도 있습니다. 사용자가 입력한 내용이 어디에, 어떤 형태로 저장되는지 명확하게 고지하지 않는 서비스도 적지 않습니다.

유출된 메시지에 이름, 위치, 직업, 건강 상태 등의 정보가 포함되어 있다면 개인 식별이 가능합니다. 이렇게 수집된 정보는 사회공학(Social Engineering) 공격에 활용될 수 있습니다. 사회공학 공격이란 기술적 취약점이 아닌 사람의 심리를 이용하는 공격 방식으로, 예를 들어 유출된 대화 내용을 근거로 신뢰를 가장한 피싱 메시지를 보내는 것이 해당됩니다.

특히 AI 챗봇에 업무상 기밀 정보나 내부 문서 내용을 입력한 경우, 조직 차원의 보안 위협으로 확대될 수 있습니다. AI 서비스의 편리함 이면에 데이터 보관과 보호에 대한 점검이 필요합니다.

지금 할 수 있는 대응법

Chat & Ask AI 사용자라면

비밀번호를 즉시 변경하는 것을 권장합니다. 같은 비밀번호를 다른 서비스에서도 사용하고 있다면, 해당 서비스의 비밀번호도 함께 변경해야 합니다. 앱에 Google, Apple 등의 소셜 계정을 연결했다면, 해당 계정의 연결된 앱 목록을 확인하고 불필요한 접근 권한을 해제하는 것이 좋습니다.

AI 앱을 사용하는 모든 분에게

AI 챗봇에 민감한 개인정보를 입력하지 않는 습관이 중요합니다. 주민등록번호, 카드 번호, 의료 기록, 비밀번호 등은 어떤 AI 서비스에도 입력하지 않는 것이 원칙입니다. AI에게 질문할 때 개인을 특정할 수 있는 정보를 빼고 질문하는 것만으로도 위험을 크게 줄일 수 있습니다.

**2단계 인증(2FA)**을 활성화하는 것도 기본적인 보안 조치입니다. 비밀번호가 유출되더라도 추가 인증 단계가 있으면 계정 탈취를 방지할 수 있습니다. 가능하면 SMS 기반이 아닌 인증 앱(Google Authenticator, Microsoft Authenticator 등)을 사용하는 것이 더 안전합니다.

앱 개발자라면

Firebase를 사용하는 프로젝트에서 Security Rules 설정은 선택이 아니라 필수입니다. 기본 규칙이 모든 접근을 허용하는 상태(allow read, write: if true)로 되어 있다면 반드시 수정해야 합니다. 인증된 사용자만 자신의 데이터에 접근할 수 있도록 규칙을 설정하는 것이 기본입니다.

Firebase는 Rules Playground라는 테스트 도구를 제공합니다. 배포 전에 이 도구를 활용하여 의도하지 않은 접근이 가능한지 검증할 수 있습니다. CI/CD 파이프라인에 Firebase 보안 규칙 검증 단계를 포함시키면, 설정 실수가 운영 환경에 반영되는 것을 사전에 차단할 수 있습니다.

클라우드 서비스의 보안은 서비스 제공자와 사용자(개발자)가 함께 책임지는 **공동 책임 모델(Shared Responsibility Model)**을 따릅니다. 인프라의 안정성은 Google이 보장하지만, 데이터 접근 제어는 개발자의 몫입니다. 이번 사건은 그 경계를 다시 한번 분명하게 보여 줍니다.


참고

공유

보안 뉴스 알림 받기

새로운 보안 뉴스를 이메일로 전달합니다.