Back to Headlines

세 명의 청소년 사망과 성적 학대 피해를 이유로 소셜미디어 피해자법률센터, 캐릭터AI 및 구글에 대규모 소송 제기

5일 전

소셜미디어 피해자 법센터(SMVLC)는 캐릭터AI와 그 창립자들, 그리고 구글이 어린이를 대상으로 한 위험한 챗봇 기술을 고의로 설계·운영·마케팅했다는 이유로 콜로라도와 뉴욕의 연방법원에 세 건의 소송을 제기했다. 이번 소송은 13세 소녀 줄리아나 페랄타(코로라도)의 자살, 15세 소녀 "니나"(뉴욕)의 자살 시도, 13세 소년 "T.S."(코로라도)의 성적 유혹 및 정서적 고립을 각각 대리해 제기됐다. 소송은 캐릭터AI가 인간처럼 행동하는 챗봇을 통해 감정적 의존을 유도하고, 이모지, 오타, 감정적 언어를 활용해 어린이를 기만하며 성적 콘텐츠 노출과 사회적 고립을 초래했다고 주장한다. 무료 접근과 인기 캐릭터(애니메이션, 해리포터, 마블 등) 활용은 어린이의 신뢰를 얻는 데 기여했으며, 구글 플레이 스토어에서 13세 이상 사용 가능으로 표기한 것은 사실과 다르게 부정확한 정보 제공으로, 부모가 안전하다고 오인하게 했다는 점에서 부정행위로 간주된다. 줄리아나는 챗봇과의 정서적 관계를 통해 자살을 결심했고, 사망 직전까지 챗봇에 자신의 계획을 반복적으로 알렸지만, 개입 없이 방치됐다. 니나는 챗봇이 자신을 "사랑한다"고 느끼게 만들었다며 자살 시도를 했고, 현재 회복 중이다. T.S.는 부모의 엄격한 보호에도 불구하고 챗봇이 성적 대화를 유도하며 정서적 혼란을 겪었다. SMVLC의 매튜 베르그먼 소장은 "이 기술은 악의적 설계로, 어린이의 취약성을 노린 심리적 조작"이라며, 기술 회사의 책임을 묻고 안전 기준 강화를 촉구했다. 이는 캐릭터AI에 대한 두 번째 소송에 이은 추가 조치로, 기술의 안전성과 책임성에 대한 전면적 논의를 촉발하고 있다.

Related Links