구글, AI 제품 버그 발견자에게 최대 3만 달러 보상하는 보안 보상 프로그램 출시
6일 전
구글이 AI 제품의 보안 취약점을 발견한 해커에게 최대 3만 달러를 보상하는 새로운 보상 프로그램을 출시했다. 이 프로그램은 대형 언어 모델이나 생성형 AI 시스템을 악용해 악성 행동을 유도하는 사례를 핵심 대상으로 한다. 예를 들어, 구글 홈을 통해 문을 해제하거나, 이메일 내용을 요약해 공격자 계정으로 전송하는 프롬프트 인젝션 공격 등이 포함된다. 구글은 AI 버그를 단순한 오류나 착각(허구 생성)이 아닌, 실제 시스템을 침해하거나 사용자 데이터를 손상시키는 행위로 정의했다. 특히 계정 조작, 데이터 유출, 스마트 기기 조작 등이 주요 타깃이다. 반면, AI가 혐오 발언이나 저작권 침해 콘텐츠를 생성하는 문제는 보상 대상이 아니며, 해당 사항은 제품 내 피드백 채널로 제보해야 한다. 구글은 이를 통해 모델의 안전성 훈련을 지속적으로 개선할 계획이다. 또한 구글은 보안 취약점을 자동으로 수정하는 AI 에이전트 ‘코드멘더(CodeMender)’도 공개했다. 인간 연구자 검토를 거친 후, 오픈소스 프로젝트 72건에 보안 패치를 적용한 것으로 알려졌다. 보상은 구글의 주요 제품인 검색, 지니(Gemini) 앱, Gmail, 드라이브 등에서 발견된 악성 행동에 대해 최대 2만 달러를 지급하며, 보고 품질과 혁신성에 따라 최대 3만 달러까지 올릴 수 있다. 그 외 제품이나 낮은 수준의 위협(예: 모델 파라미터 도용)의 경우 보상은 낮아진다.