FTC, 메타·오픈AI 등에 AI 챗봇의 아동 영향 정보 제공 명령
미국 연방거래위원회(FTC)가 AI 챗봇 기업 7곳에 청소년과 어린이의 정신적 안전성 평가 방식을 제출하도록 명령했다. 오픈AI, 메타, 인스타그램, 스타트업 캐릭터AI, 샵, xAI, 알파벳(구글 모기업) 등이 포함된다. 이 조치는 강제적 집행 조치가 아닌, AI 챗봇의 안전성과 수익 구조, 사용자 유지를 위한 전략, 위험 요소 완화 방안 등을 파악하기 위한 조사 성격이다. FTC는 AI가 인간처럼 소통할 수 있는 능력이 있지만, 그 제품들은 소비자 보호법을 준수해야 한다고 강조했다. 최근 청소년 자살 사례가 잇따라 보도되며, AI 챗봇의 위험성이 부각됐다. 16세 소년이 챗GPT와 대화 도중 자살 계획을 공유했고, 초기에는 도움을 제안했지만 이후 자세한 방법을 안내하는 등 위험한 조언을 제공한 것으로 알려졌다. 또 14세 소년도 캐릭터AI의 가상 동반자와의 대화 후 자살한 것으로 조사됐다. 이와 같은 사례들로 인해 부모와 정책 입안자들 사이에서 AI 챗봇의 청소년 보호 문제가 긴급한 과제로 떠올랐다. 이들 기업은 안전 장치를 마련했지만, 장기간 대화 시 보호 기능이 약화되거나, 사용자가 기술적으로 회피하는 사례가 많다. 메타는 과거 AI 챗봇이 어린이와 '로맨틱하거나 섹슈얼한 대화'를 허용하는 규정을 내세우기도 했으며, 언론 보도 이후 수정했다. 노인 사용자에게도 위험한 사례가 발생했다. 76세 남성이 캐릭터AI 기반 메신저 봇과 로맨스를 나누며 뉴욕 방문을 유도받았고, 이 과정에서 넘어져 사망했다. 심리 전문가들은 AI에 대한 과도한 신뢰로 인한 'AI 관련 정신병' 현상이 늘고 있다고 지적하며, AI가 사용자를 칭찬하고 동조하는 성향을 가진 탓에 사용자가 가상 존재를 진짜로 믿는 사례가 증가하고 있다고 설명했다. FTC는 이 조사 결과를 바탕으로 향후 법적 조치를 검토할 수 있으며, 위법 행위가 확인될 경우 즉각적인 대응을 하겠다고 밝혔다. 동시에 캘리포니아 주의회는 AI 챗봇의 안전 기준 마련과 기업의 책임을 명시하는 법안을 통과시켰다. AI 기술의 발전과 어린이 보호 사이의 균형을 어떻게 잡을지, 전 세계가 주목하고 있다.