ChatGPT 치료 세션, 소송에서 비공개 보장 안 돼
OpenAI의 CEO인 사姆 알트먼(Sam Altman)은 젊은이들이 특히 ChatGPT를 심리 상담사처럼 이용하고 있지만, 이 대화가 법적 보호를 받지 못할 수 있다고 경고했다. 알트먼은 12일 방송된 팟캐스트 'Theo Von' 인터뷰에서 "사람들이 ChatGPT에 가장 민감한 내용을 공유하고, 나중에 소송이나 다른 법적 상황이 생기면, 그 대화를 공개해야 할 수도 있다"고 밝혔다. 이는 현실적인 상담사와는 다른 상황으로, "의사-환자 간의 비밀 보장이나 변호사와의 법적 비밀 보장 같은 법적 보호가 ChatGPT 대화에는 적용되지 않는다"고 설명했다. 알트먼은 이러한 문제를 "급히 해결해야 할 과제"라고 강조하며, AI와의 대화에도 동일한 사생활 보호가 필요하다고 주장했다. 그는 최근 ChatGPT 사용자들이 상담, 생활 멘토, 또는 관계 조언을 위해 AI를 활용하는 경우가 늘어나고 있다고 언급했다. 이는 한 해 전만 해도 고려되지 않았던 새로운 현상이다. 알트먼은 "이러한 상황에 대해 법적 기준을 어떻게 설정할지가 중요한 문제"라고 말했다. 그는 또한, WhatsApp나 Signal과 같은 암호화 메시징 서비스와 달리 OpenAI 직원들이 사용자 대화를 읽고, 모델 개선이나 부적절한 사용 감시에 활용할 수 있다고 덧붙였다. OpenAI의 데이터 보관 정책에 따르면, ChatGPT 무료, 플러스, 프로 버전의 대화는 30일 이내에 삭제되지만, 법적 또는 보안상의 이유로 계속 보관될 수 있다. 6월, 뉴욕타임스 등 언론사들은 OpenAI에 모든 사용자 로그, 포함 삭제된 대화까지 영구히 보관하도록 요구하는 법원 명령을 제출했다. 이는 저작권 소송의 일환으로, OpenAI는 이를 항소하고 있다. 알트먼은 팟캐스트에서 자녀를 가진 아버지로서, 소셜 미디어 플랫폼이 어린이에게 미치는 심리적 영향에 대해 우려를 표명했다. 산업 전문가들은 알트먼의 발언을 주목하며, AI와의 대화가 법적 보호를 받을 수 있는 새로운 프라이버시 기준이 필요하다고 강조했다. 특히, ChatGPT 사용자가 자신의 감정적 문제나 개인적 고민을 AI에 공유하는 경우가 늘어나면서, 데이터 보호와 법적 책임에 대한 논의가 필요하다는 의견이다. OpenAI는 AI 기술의 발전과 함께 이러한 문제를 해결하기 위한 정책적 접근을 모색해야 할 것으로 보인다.