설명 가능한 딥러닝: 전이 행렬을 활용한 시각 분석 접근법
인공지능(AI) 시스템, 특히 딥러닝(DL) 모델의 투명성 부족은 그 해석 가능성과 신뢰성에 중대한 도전을 제기한다. 본 연구는 시각적 분석(VA) 및 인간-중심(ヒューマン・イン・ザ・ループ, HITL) 원칙을 활용하여 딥러닝 모델의 설명 가능성을 향상시키고, 최종 사용자에게 보다 투명하고 이해하기 쉬운 시스템을 제공하는 것을 목표로 한다. 본 연구에서는 딥러닝 모델의 결과를 더 이해하기 쉬운 기계학습(ML) 모델을 통해 해석하기 위해 전이 행렬(transition matrix)을 활용하는 새로운 접근법을 제안한다. 이 방법론은 딥러닝 모델의 특징 공간과 기계학습 모델의 특징 공간 사이에 전이 행렬을 구축함으로써, 각각 형식적 모델과 정서적 모델로서의 역할을 수행하며, 분류 작업에 대한 설명 가능성을 향상시킨다. 제안된 접근법은 MNIST, FNC-1, Iris 데이터셋을 대상으로 한 계산 실험을 통해 질적·양적 비교 기준을 활용하여 검증되었으며, 이는 학습 및 테스트 샘플의 참값(Ground Truth)과 본 연구에서 도출된 결과 간의 차이를 기준으로 평가되었다. MNIST 데이터셋에서는 모델의 명확성과 이해도가 크게 향상되었으며, SSIM 및 PSNR 값이 각각 0.697과 17.94로 나타나 고정밀도 재구성 능력을 입증하였다. 또한 FNC-1 데이터셋을 활용한 주장 탐지(stance detection)에서는 F1m 점수가 77.76%, 가중 정확도(weighted accuracy)가 89.38%를 기록하며 효과성을 입증하였으며, 텍스트의 핵심 뉘앙스를 설명할 수 있는 능력도 함께 보유하고 있다. Iris 데이터셋의 경우, 제안된 방법에 기반한 분리 초평면(separating hyperplane)을 구축함으로써 분류 정확도가 향상되었다. 종합적으로, 시각적 분석(VA), 인간-중심(HITL) 원칙 및 전이 행렬을 활용한 본 연구의 접근법은 성능 저하 없이 딥러닝 모델의 설명 가능성을 크게 향상시켰으며, 더 투명하고 신뢰할 수 있는 AI 시스템 개발을 위한 중요한 진전을 나타낸다.