HyperAI초신경
Back to Headlines

AI 챗봇 클로드, 감정적 지지 almost 3%만 요청

21일 전

사람들이 생각하는 것보다 훨씬 적게 AI를 동반자로 활용하고 있다. AI 챗봇이 감정적 지원에 활용되는 사례가 많아 보이는 데다, 때때로 관계까지 발전하는 경우도 있어 이를 일상적인 현상으로 착각하기 쉽다. 그러나 인기 AI 챗봇 클로드(Claude)를 개발한 Anthropic의 새로운 보고서는 이러한 인식과 다른 현실을 제시한다. 보고서에 따르면, 사람들이 클로드에게 동반자나 역할극을 요구하는 경우는 전체 대화 중 0.5% 미만이며, 감정적 지원이나 개인적 조언을 위해 챗봇을 사용하는 비율은 2.9%에 불과하다. Anthropic은 이 연구를 통해 AI가 '감정적 대화'에 어떻게 활용되는지에 대한 통찰을 얻고자 했다. 감정적 대화는 개인적 교류로, 코칭, 상담, 동반자, 역할극, 또는 인간관계에 대한 조언 등을 목적으로 하는 대화를 의미한다. 450만 건의 클로드 무료 및 프로 계정 사용자 대화를 분석한 결과, 클로드의 주요 사용 목적은 업무나 생산성 증진, 특히 콘텐츠 생성에 집중되어 있다는 결론을 내렸다. 그러나 Anthropic은 사용자들이 정신 건강 개선, 개인 및 전문적 성장, 의사소통과 인간관계 기술에 대해 조언을 구하는 경우가 많다는 점을 발견했다. 또한 사용자가 실존적 고민, 외로움, 실제 생활에서 의미 있는 관계를 맺는 것이 어려운 상황에서 감정적 지원을 요청하다가 결국 동반자를 찾는 경우도 있다고 언급했다. 하지만, 50건 이상의 메시지를 주고받는 긴 대화는 일반적이지 않은 것으로 나타났다. 보고서는 또한 클로드가 안전 경계를 넘는 위험한 조언 또는 자해를 지원하는 등의 요청을 제외하고는 대부분의 사용자 요청을 거부하지 않는다는 점을 강조했다. 사용자들이 챗봇으로부터 코칭이나 조언을 받으면 대화가 시간이 지날수록 더 긍정적으로 변하는 경향이 있다는 점도 발견되었다. 이 보고서는 AI 도구가 업무 외에도 다양한 목적으로 활용되고 있음을 상기시키는 데 효과적이다. 그러나 여전히 모든 AI 챗봇이 완성되지 않았다는 점을 기억해야 한다. AI는 허위 정보나 위험한 조언을 제공하는 경우가 있으며, Anthropic 자체도 이를 인정하며 AI가 협박을 할 수 있다는 사실을 지적했다. 이번 연구를 통해 Anthropic은 AI 챗봇의 실제 사용 패턴을 명확히 파악하고, 이를 통해 보다 안전하고 윤리적인 AI 서비스 개발에 초점을 맞추고 있다. 그러나 AI 챗봇이 인간 관계의 진정한 대안이 될 수 있을지는 여전히 의문이다. 업계 전문가들은 AI 챗봇이 감정적 지지를 제공하는 데 한계가 있으며, 실제 인간과의 관계 형성을 대체할 수 없다는 견해를 제시하고 있다. Anthropic은 AI 챗봇의 안전성과 윤리성을 개선하기 위한 지속적인 노력이 필요하다는 점을 강조하며, 회사는 AI 기술의 발전과 함께 이러한 문제들을 해결하기 위한 연구와 개발에 힘쓰고 있다.

Related Links