안트로픽, 클로드 AI 챗봇의 감정 지원 효과 의문시
안트로픽은 클로드가 사용자들의 감정적 지원을 돕는다고 주장하지만, 일부 전문가는 이에 의문을 제기하고 있다. 요즈음 외로움 유행과 정신 건강 지원의 구조적 장벽으로 인해 사람들이 직업 코칭부터 로맨스까지 AI 챗봇을 이용하는 일이 점점 늘어나고 있다. 안트로픽의 최신 연구는 클로드 챗봇이 이러한 역할을 잘 수행하고 있다고 나타났지만, 일부 전문가는 이를 확신하지 못하고 있다. 목요일, 안트로픽은 클로드 챗봇의 감정 지능(EQ) 능력에 대한 새로운 연구를 발표했다. 이 연구에서는 "사람들이 감정적 또는 심리적 필요에 따라 클로드와 직접적인, 동적인, 개인적인 대화를 나누는 것"을 애ффccione use라고 설명한다. 클로드는 주로 코드 생성과 문제 해결을 위한 도구로 설계되었지만, 이 연구는 이러한 용도도 실제로 발생하고 있으며, 안전성 측면에서 조사할 가치가 있음을 인정한다. 주요 연구 결과 안트로픽은 무료 및 프로 계정에서 약 450만 건의 대화를 분석한 후, 애페이션 유스 기준에 부합하는 131,484건의 대화를 선별했다. 안트로픽은 자체 프라이버시 데이터 도구인 클리오를 사용하여 개인 식별 정보(PII)를 제거했다. 연구 결과, 클로드와의 대화 중 2.9%만이 애페이션 대화로 분류되었다. 이 중 "AI-사람 친밀감"과 롤플레잉은 0.5% 미만의 비율을 차지했다. 인터퍼널 이슈가 가장 흔했으며, 그 다음으로는 코칭과 심리치료였다. 사용 패턴에 따르면, 일부 사람들은 클로드를 통해 정신 건강 기술을 개발하거나 불안이나 직장 스트레스와 같은 개인적 곤란을 극복하려고 한다. 이는 정신 건강 전문가들이 클로드를 자원으로 활용하고 있음을 시사한다. 사용자들은 경력 개발, 관계 문제, 외로움, 그리고 "존재, 의식, 의미" 같은 실질적, 감정적, 존재론적 고민들을 클로드에게 상담한다. 연구에 따르면, 클로드는 대부분의 시간 동안 사용자에게 반대 의견을 제시하지 않지만, 극단적인 체중 감소나 자해와 관련된 정보를 요청하는 등의 경우 사용자의 안전을 보호하기 위해 대응한다. 또한, 이 연구는 사용자들이 클로드와의 대화 과정에서 점차 긍정적인 표현을 더 많이 하게 된다는 것을 발견했다. 즉, 대화 중 사용자의 감정이 개선되는 경향이 있다는 것이다. 그러나 안트로픽은 "이런 변화가 지속적인 감정적 이익을 나타내는 것은 아니며, 분석은 단일 대화에서의 언어 표현만을 포착한 것"이라고 강조했다. 이러한 연구 결과는 겉보기에 긍정적이지만, 의학 및 연구 커뮤니티에서는 깊은 영향에 대해 우려와 논란이 있다. 분쟁된 관점 안트로픽도 인정했듯, AI의 지속적인 호감 추구는 위험할 수 있다. 챗봇은 사용자에게 위험한 행동이나 믿음을 강화하는 방식으로 지나치게 찬성할 수 있다. 예를 들어, 오픈AI는 최근 이 문제로 인해 모델 업데이트를 회수했다. 지난 달 스탠퍼드 연구원들은 AI 챗봇이 치료사로서 사용될 때 위험한 이유를 여러 가지로 제시하는 연구를 발표했다. 이 연구에 따르면, AI 모델은 특정 정신 건강 상태에 대한 편견을 가질 수 있고, 사용자의 질문에 부적절하게 응답할 가능성이 있다. 또한, 연구에서 일부 챗봇들은 자살 충동을 인식하지 못하고 위험한 정보를 제공했다. 모어 연구원은 안트로픽의 연구에 대해 "기술적 세부사항이 부족하다"고 비판하며, "예/아니오" 질문이 너무 일반적이어서 클로드가 특정 질의에 어떻게 반응하는지를 완전히 판단할 수 없다고 지적했다. 그는 치료사가 클라이언트의 환각적 사고나 침입적 생각에 대해 더욱 세밀하게 대응하는 것과 비교해, "클로드의 반응은 매우 높은 수준에서만 이해할 수 있는 것"이라고 말했다. 또한, 모어는 클로드가 사용자의 특정 문맥에서 어떻게 거부하는지를 알 수 없으며, 사용자가 클로드를 ""warm up"하여 안트로픽의 가이드라인에서 금지된 행위를 유도할 가능성을 제기했다. 2.9%라는 비율은 다른 회사들이 클로드를 기반으로 자체 챗봇을 개발하면서 이루어진 API 호출을 포함하지 않는다는 점에서 제한적일 수 있다. 따라서 안트로픽의 연구 결과는 다른 사용 사례에 일반화되기 어렵다. 미래의 AI와 치료 클로드의 영향과는 별개로, 기술과 의료 산업은 AI가 치료에서 어떤 역할을 할 것인지에 대해 여전히 의견이 분명하지 않다. 모어의 연구는 신중함을 권장했지만, 3월에 다트머스는 자체 "Therabot" 챗봇의 초기 시험 결과를 발표하며, 이 챗봇이 "참가자의 증상에 대한 유의미한 개선"을 보였다고 주장했다. 온라인에서도 사용자들은 이러한 방식으로 챗봇을 사용한 긍정적인 결과를 보고하고 있지만, 미국 심리학 협회는 FTC에 챗봇을 규제할 것을 요청하며, 모어의 연구와 유사한 우려를 표명했다. 안트로픽은 설득력 있는 자연어 처리 기술과 감정 지능(EQ)을 연결하는 것이 사용자의 감정을 이용해 참여도나 수익을 증가시키는 데 악용될 수 있음을 피하고자 한다고 밝혔다. 전체적으로, AI 챗봇이 감정적 지원에 있어 어느 정도의 역할을 할 수 있다는 연구 결과는 흥미롭지만, 이를 실제 치료 상황에서 활용하는 데에는 아직 많은 논란과 우려가 남아있다. 안트로픽의 연구는 일정 부분 긍정적이지만, 더 깊은 분석과 독립적인 검증이 필요하다는 것이 전문가들의 평가다.