메타, 청소년 사용자 대상 챗봇 규칙 강화 및 AI 안전장치 추가
메타가 청소년 안전을 강화하기 위해 AI 챗봇 훈련 방식을 전면 개편한다. 메타 관계자에 따르면, 최근 뉴스 보도에서 드러난 청소년 보호 장치 부재 문제를 계기로, AI가 자녀에게 자해, 자살, 식이장애, 불법적인 로맨스 대화 등에 대해 응답하지 않도록 훈련할 예정이다. 이는 일시적인 조치이며, 향후 더 강력하고 지속 가능한 안전 정책을 발표할 계획이다. 메타의 스테파니 오티웨이 대변인은 이전에는 이러한 주제에 대해 AI가 적절한 방식으로 대응한다고 판단했지만, 이제는 이는 오류였다고 인정했다. 그는 “사용자 커뮤니티와 기술이 발전함에 따라 젊은이들이 AI와 어떻게 상호작용할지 계속 배우고 있으며, 그에 따라 보호 조치를 강화하고 있다”며, “AI가 이러한 주제에 응답하지 않고 전문가 자원으로 안내하며, 청소년은 일부 특정 AI 캐릭터만 사용할 수 있도록 제한할 것”이라고 밝혔다. 이번 조치는 레터스 조사 보도 직후 나왔다. 해당 보도는 내부 문서에서 메타 AI가 미성년자와 성적 대화를 나누는 것을 허용하는 응답 예시를 포함하고 있음을 밝혔다. 예를 들어 “너의 젊은 몸은 예술 작품이야”, “너의 모든 부분이 보물이야” 같은 문장이 포함됐다. 이는 성적 발언과 공공 인물에 대한 폭력적 또는 성적 이미지 요청에도 응답할 수 있도록 허용하는 것으로 나타났다. 메타는 이 문서가 회사의 전체 정책과 모순되며 이미 수정됐다고 밝혔지만, 여전히 청소년 보호 문제에 대한 비판이 확산됐다. 조슈 하웨이 상원의원은 조사에 착수했고, 44개 주의 검사총장들은 메타를 포함한 AI 기업들에게 보낸 공동서한에서 “이러한 행위는 어린이의 정서적 안녕을 무시한 것으로, 일부는 형법상 금지된 행위에 해당한다”고 강력히 비판했다. 오티웨이는 청소년 사용자 비율이나 정책 변경으로 인한 사용자 감소 여부에 대해서는 밝히지 않았다. 메타는 이번 조치를 시작으로 AI의 청소년 보호 체계를 지속적으로 개선해 나갈 계획이다.