2달 전

SCAN: 라벨 없이 이미지 분류 학습하기

Wouter Van Gansbeke; Simon Vandenhende; Stamatios Georgoulis; Marc Proesmans; Luc Van Gool
SCAN: 라벨 없이 이미지 분류 학습하기
초록

지면 진실 주석이 부족한 경우 이미지를 의미上有語法錯誤,我將修正並翻譯如下:지면 진실 주석이 없는 경우 이미지를 의미上有語法錯誤,我將修正並翻譯如下:지면 진실 주석이 없는 경우 이미지를 의미적으로 유의미한 클러스터로 자동으로 그룹화할 수 있을까요? 지도되지 않은 이미지 분류는 컴퓨터 비전에서 중요한 미해결 과제입니다. 최근 몇 가지 접근 방식은 이 문제를 단계별로 해결하려고 시도했습니다. 본 논문에서는 최근 연구들과 달리, 특성 학습과 클러스터링을 분리하는 두 단계 접근 방식을 제안합니다. 첫째, 표현 학습에서 자기 지도 작업을 사용하여 의미적인 특성을 얻습니다. 둘째, 얻은 특성을 학습 가능한 클러스터링 방법의 사전 정보로 활용합니다. 이를 통해 현재 단계별 학습 접근 방식에서 발견되는 저수준 특성에 의존하는 클러스터 학습 능력을 제거합니다. 실험 평가 결과, 본 방법론은 특히 CIFAR10에서 +26.6%, CIFAR100-20에서 +25.0%, STL10에서 +21.3%의 정확도 향상으로 기존 최신 방법론들을 크게 능가함을 확인하였습니다. 또한, 본 연구는 대규모 데이터셋에 대한 이미지 분류에서 우수한 성능을 보인 첫 번째 방법론입니다. 특히 ImageNet에서 유망한 결과를 얻었으며, 어떠한 지면 진실 주석도 사용하지 않음에도 불구하고 저데이터 환경에서 여러 준지도 학습 방법론들을 능가하였습니다. 코드는 https://github.com/wvangansbeke/Unsupervised-Classification 에 공개되었습니다.为了确保表述更加正式和准确,以下是经过调整后的翻译版本:지면 진실 주석이 없는 상황에서도 이미지를 의미적으로 유의미한 클러스터로 자동으로 그룹화할 수 있을까요? 지도되지 않은 이미지 분류는 컴퓨터 비전 분야에서 여전히 중요한 미해결 과제입니다. 최근 몇몇 접근법들은 이 문제를 단일 프레임워크 내에서 종단(end-to-end)으로 해결하려고 시도했습니다. 그러나 본 논문에서는 이러한 최근 연구들과 다르게, 특성 학습과 클러스터링을 분리하는 두 단계 접근법을 제안합니다. 첫 번째 단계에서는 표현 학습(self-supervised task)을 통해 의미적인 특성을 획득합니다. 두 번째 단계에서는 획득된 특성을 사전 정보(prior)로서 활용하여 학습 가능한 클러스터링 방법을 적용합니다. 이를 통해 현재 종단(end-to-end) 학습 접근법들이 가지고 있는 저수준 특성에 대한 의존성을 제거할 수 있습니다. 실험 평가는 본 방법론이 특히 CIFAR10 데이터셋에서 +26.6%, CIFAR100-20 데이터셋에서 +25.0%, 그리고 STL10 데이터셋에서 +21.3%의 정확도 향상으로 기존 최신 방법론들을 크게 능가함을 보여주었습니다. 또한, 본 연구는 대규모 데이터셋에 대한 이미지 분류 문제에서도 우수한 성능을 보인 첫 번째 방법론입니다. 특히 ImageNet 데이터셋에서는 유망한 결과를 얻었으며, 어떠한 지면 진실 주석도 사용하지 않는 저데이터 환경(low-data regime)에서도 여러 준지도(semi-supervised) 학습 방법론들을 능가하였습니다. 해당 코드는 https://github.com/wvangansbeke/Unsupervised-Classification 에 공개되었습니다.希望这个翻译版本能更好地满足您的需求。如果有任何进一步的修改建议,请随时告知。

SCAN: 라벨 없이 이미지 분류 학습하기 | 최신 연구 논문 | HyperAI초신경