스케일 AI, 공개 구글 문서로 보안 문제 야기
Scale AI의 공개된 Google Docs가 인공지능 프로젝트의 보안 문제를 드러냈다. Scale AI의 공동 창업자 알렉산드르 왕은 메타가 143억 달러를 투자한 후, 회사가 고객 데이터 보호에 주력하고 있다고 재보증하려고 노력하고 있다. 그러나 Business Insider(BI)가 발견한 유출 파일과 Scale AI의 자체 계약직 직원들의 증언은 회사 내부에 심각한 보안 사각지대가 있음을 시사한다. Scale AI는 대기업 고객들이나 구글, 메타, xAI 등과의 작업을 추적하기 위해 공개된 Google Docs를 빈번히 사용하고 있다. 이런 방식은 24만 명 이상의 계약직 직원들을 관리하는 데 매우 효율적이지만, 분명한 사이버 보안 및 기밀성 위험을 초래한다. BI는 "기밀"로 표시된 여러 인공지능 훈련 문서들이 링크만 있으면 누구나 접근할 수 있었던 것을 확인했다. 또한, 일부 문서들은 링크를 가진 사람이라면 수정까지 가능했다. 고객사들에 대한 정보도 공개적으로 노출되었다. BI는 Scale AI와 관련된 85개의 개별 Google Docs에서 수천 페이지의 프로젝트 문서를 확인할 수 있었다. 이 중 하나는 구글이 ChatGPT를 활용해 자사의 챗봇 바드(Bard)를 개선하려고 했던 방법을 상세히 설명하고 있었다. Scale은 구글이 바드의 복잡한 질문 처리 능력이 부족하다고 판단한 부분을 어떻게 개선할 것인지에 대한 지침을 제공했다. 엘론 머스크의 xAI와 관련해서도, Scale이 4월까지 최소 10개의 생성형 인공지능 프로젝트를 수행한 사실이 공개된 Google 문서와 스프레드시트를 통해 확인되었다. 특히 "프로젝트 우드폰(Xylophone)"에 대한 훈련 문서와 700개의 대화 주제 목록이 포함되어 있었는데, 이는 AI의 다양한 주제에 대한 대화 역량을 향상시키는 데 초점을 맞추고 있었다. 메타와 관련된 "기밀"로 표시된 문서들도 공개되어 있었으며, 이에는 메타의 음성 샘플링 파일이 포함되어 있었다. 이 파일들은 메타의 AI 제품이 표현력을 갖추는 데 필요한 기준을 제시했으며, 일부 프로젝트는 메타의 챗봇이 더 대화적이고 감정적으로 참여할 수 있도록 훈련시키는 데 중점을 두었다. Scale AI의 계약직 직원들은 작업의 성격이나 지침 문구만으로도 자신이 어떤 고객사를 위해 일하고 있는지를 쉽게 알아차릴 수 있었다. 때때로는 프로젝트 코드명이 아닌 고객사의 로고가 포함된 프레젠테이션을 통해 즉시 고객사를 알아볼 수 있었다. 이는 기술적으로 익명성을 유지하려고 했음에도 불구하고, 실제 작업 과정에서 고객사를 쉽게 식별할 수 있다는 점을 나타낸다. 또한, Scale AI는 계약직 직원들의 개인 정보를 포함한 여러 Google Docs를 공개적으로 관리하고 있었다. 비밀이 유지되어야 하는 수천 명의 작업자들의 이름과 개인 이메일 주소가 열람 가능하게 되어 있었으며, 일부 문서는 "좋은 사람"과 "나쁜 사람"으로 작업자를 분류하거나, 의심스러운 행동을 한 작업자들을 집계하는 내용이 포함되어 있었다. 이외에도, 각 작업자의 급여와 관련된 상세한 정보와 급여 분쟁 기록들 역시 공개되어 있었다. 현직과 전직 Scale AI 계약직 직원 다섯 명은 BI에, 공개된 Google Docs 사용이 회사 내에서 매우 일반적이었으며, 이는 자유계약직 중심의 운영 방식을 효율화하는 데 도움이 되었다고 말했다. 그러나, 이 방식은 보안 검증 없이도 많은 인공지능 훈련 정보에 접근할 수 있다는 점에서 문제가 있었다. 업계 전문가들의 평가 Columbia 대학의 사이버보안 강사 조셉 스타인버그는 "물론 위험합니다. 최선의 시나리오에서도 사회공학적 공격을 용이하게 합니다"라고 경고했다. 사회공학적 공격은 해커들이 회사 내부 인원으로 가장하여 접근 권한을 얻는 방법을 말한다. 이는 수천 명의 작업자 정보가 쉽게 접근 가능할 때 더 큰 위협을 의미한다. 사이버 보안 회사 Trace3의 지역 책임자 스테파니 커츠는 "누군가가 링크를 공유하지 않는다고 바라는 것은 좋은 전략이 아닙니다. 초대를 통해 접근을 관리해야 합니다"라고 강조했다. 또한, 일부 Google Docs가 누구나 편집 가능하도록 설정되어 있어, 악의적인 행위자가 링크를 삽입하여 다른 사람들이 클릭하도록 유도할 위험이 존재한다고 지적했다. Scale AI는 이러한 문제에 대해 "신중한 조사를 진행하고 있으며, Scale 관리 시스템에서 문서를 공개적으로 공유할 수 있는 사용자의 접근을 차단했습니다. 고객들의 기밀 정보를 보호하기 위한 철저한 기술적 및 정책적 보호 장치를 계속 강화해 나갈 것입니다"라고 밝혔다. 그러나 이러한 조치가 충분했는지, 메타가 투자 전에 이 문제를 알았는지는 여전히 의문이다. 이 사건은 성장 지향적인 스타트업들이 보안을 소홀히 하면서 발생할 수 있는 위험을 다시 한 번 드러내며, 업계에서는 Scale AI의 보안 대책에 대한 지속적인 관심과 개선이 필요하다는 목소리가 높아지고 있다.