
산업용 이상 탐지는 품질 관리 및 예측 정비에서 핵심적인 역할을 하지만, 제한된 학습 데이터, 다양한 이상 유형, 그리고 객체의 외관을 변화시키는 외부 요인으로 인해 도전 과제를 안고 있다. 기존의 방법들은 심층 사전 학습 네트워크를 통해 추출한 이미지 패치의 다중 스케일 특징을 활용하여 구조적 이상(예: 흠집, 긁힘 등)을 탐지하는 데 집중한다. 그러나 이러한 접근 방식은 높은 메모리 및 계산 자원 소모로 인해 실용적 적용에 한계가 있다. 더불어, 누락되거나 과도하게 포함된 요소가 있는 이미지와 같은 논리적 이상을 탐지하기 위해서는 공간적 관계를 이해할 수 있어야 하는데, 전통적인 패치 기반 방법은 이러한 이해를 제공하지 못한다. 본 연구에서는 이러한 한계를 극복하기 위해 메모리와 계산 자원을 효율적으로 사용하는 구조적 이상 탐지를 위한 ‘심층 특징 재구성(Deep Feature Reconstruction, DFR)’에 초점을 맞춘다. 또한 DFR를 개선하여 구조적 이상과 논리적 이상을 동시에 탐지할 수 있는 통합 프레임워크인 ULSAD(Unified Logical and Structural Anomaly Detection)를 제안한다. 구체적으로, 구조적 이상 탐지 성능을 향상시키기 위해 DFR의 학습 목표를 보완하였으며, 전역 자동인코더 구조를 기반으로 한 주의력 기반 손실 메커니즘을 도입하여 논리적 이상 탐지에 대응한다. 다섯 개의 기준 데이터셋을 대상으로 수행한 실험적 평가를 통해 ULSAD가 구조적 이상과 논리적 이상을 효과적으로 탐지하고 국소화할 수 있음을 입증하였으며, 기존의 여덟 가지 최첨단 방법들을 모두 능가하는 성능을 보였다. 추가로 수행한 아블레이션 연구를 통해 각 구성 요소가 전체 성능 향상에 기여하는 방식을 명확히 확인할 수 있었다. 본 연구의 코드는 https://github.com/sukanyapatra1997/ULSAD-2024.git 에 공개되어 있다.