AI가 나무를 어떻게 그릴까? 숨은 철학적 가정이 드러나는 순간
인공지능의 편향을 이해하기 위해 연구자들은 "나무를 어떻게 상상하나요?"라는 질문을 던졌다. 이 질문은 단순한 시각적 이미지가 아니라, 우리가 세계를 인식하는 근본적인 체계, 즉 온톨로지(ontological framework)를 드러내는 열쇠가 된다. 스탠포드 대학의 나바 하그히의 연구팀은 대규모 언어모델(LLM)이 나무를 생성할 때, 뿌리 없는 단일 줄기 형태를 출력하는 등, 인간의 인식이 모델의 출력에 깊이 뿌리내리고 있음을 발견했다. 그는 "모든 것이 연결되어 있다"는 프롬프트를 넣었을 때 비로소 뿌리가 나타났다. 이는 식물학자, 영적 치유자, 컴퓨터 과학자 등 다양한 관점에서 '나무'에 대한 이해가 다르다는 것을 보여준다. 연구팀은 GPT-3.5, GPT-4, Microsoft Copilot, Gemini 등 4개 주요 AI 시스템을 분석한 결과, 비록 다양한 철학적 관점을 언급할 수는 있지만, 실제로는 서구 중심의 생물학적 인간 개념을 기반으로 정의하며, 비서구적 사고는 모호하게 통합된다는 한계를 확인했다. 특히 '생산적 에이전트' 시스템에서는 기억의 중요성 평가 기준이 문화적 편향을 내포하고 있어, 실제 인간의 경험과는 다르게 가치를 판단한다. 연구팀은 AI가 스스로의 온톨로지적 한계를 평가할 수 없다는 점을 지적하며, 개발 과정 전반에서 다양한 존재론적 가정을 탐색하고, 인간의 정의를 좁은 기준으로 고정하지 말고, 불확실성과 다양성을 수용하는 설계가 필요하다고 제안한다. AI가 단순히 인간을 모방하는 것이 아니라, 인간의 의미를 확장하는 도구가 되어야 한다는 메시지를 전한다.