YOLOv11의 원클릭 배포
YOLO11: 컴퓨터 비전 작업을 위한 다재다능한 선택인 YOLO 시리즈의 최신 버전

1. 튜토리얼 소개
YOLOv11은 Ultralytics 팀이 개발한 실시간 객체 감지기의 최신 버전으로, 2024년 9월 30일 YOLO Vision 2024(YV24) 이벤트에서 발표되었습니다. YOLOv11은 정확도, 속도, 효율성 면에서 상당한 개선을 제공하여 컴퓨터 비전 작업을 위한 강력한 도구가 되었습니다. YOLOv11의 출시는 개발 과정을 단순화하고 이후 통합을 위한 초석을 제공하기 위한 것입니다. 이 모델은 이전 버전의 YOLO 모델에 비해 아키텍처와 학습 방법이 크게 개선되어 다양한 컴퓨터 비전 작업에 적합한 선택이 되었습니다. YOLOv11의 출시는 객체 감지 기술의 새로운 이정표를 예고합니다. 이 제품은 속도와 정확도 면에서 새로운 기준을 제시할 뿐만 아니라, 더 중요한 점은 혁신적인 모델 아키텍처 설계로 복잡한 객체 감지 작업을 손쉽게 수행할 수 있다는 것입니다.
게다가 YOLOv11의 설치 과정은 비교적 간단합니다. 개발자는 GitHub 페이지에서 최신 소스 코드를 다운로드하고 가이드에 따라 모델 예측의 명령줄 테스트를 수행할 수 있습니다. 이 튜토리얼에서는 YOLOv11을 사용합니다. 모델과 관련 환경이 설치되었습니다. API 주소를 직접 복제하고 열어서 모델 추론을 수행하고 이미지 감지, 분할, 포즈 추정, 추적 및 분류를 실현할 수 있습니다.
YOLOv11의 주요 개선 사항은 다음과 같습니다.
- 향상된 기능 추출: 보다 정확한 객체 감지를 위해 백본 및 넥 아키텍처가 개선되었습니다.
- 최적화된 처리 속도: 새로운 아키텍처 설계와 교육 방법을 통해 더 빠른 처리 속도가 가능합니다.
- 매개변수가 적을수록 정확도가 높아집니다. COCO 데이터 세트에서 YOLOv11m은 매개변수가 적을수록 YOLOv8m보다 더 높은 평균 정확도(mAP)를 달성합니다.
- 강력한 환경 적응성: YOLOv11은 엣지 디바이스, 클라우드 플랫폼, NVIDIA GPU를 지원하는 시스템 등 다양한 환경에 배포할 수 있습니다.
- 다양한 작업 지원: YOLOv11은 객체 감지, 인스턴스 분할, 이미지 분류, 포즈 추정, 방향 객체 감지(OBB) 등 다양한 컴퓨터 비전 작업을 지원합니다.
YOLO 개발 역사
YOLO(You Only Look Once)는 워싱턴 대학의 조셉 레드먼과 알리 파르하디가 개발한 인기 있는 객체 감지 및 이미지 분할 모델입니다. YOLO는 2015년에 출시되었으며 빠른 속도와 정확성으로 빠르게 인기를 얻었습니다.
- 2016년에 출시된 YOLOv2는 배치 정규화, 앵커 박스, 차원 클러스터링을 통합하여 원래 모델을 개선했습니다.
- 2018년에 출시된 YOLOv3는 보다 효율적인 백본 네트워크, 멀티 앵커, 공간 피라미드 풀링을 사용하여 모델의 성능을 더욱 향상시켰습니다.
- YOLOv4는 2020년에 출시되었으며, Mosaic 데이터 증강, 새로운 앵커 없는 감지 헤드, 새로운 손실 함수와 같은 혁신 기술을 도입했습니다.
- YOLOv5는 모델의 성능을 더욱 개선하고 하이퍼파라미터 최적화, 통합 실험 추적, 일반적인 내보내기 형식으로의 자동 내보내기 등의 새로운 기능을 추가했습니다.
- YOLOv6는 2022년에 메이투안에서 오픈 소스로 공개되었으며 현재 이 회사의 많은 자율 배송 로봇에 사용되고 있습니다.
- YOLOv7은 COCO 키포인트 데이터 세트에 대한 포즈 추정과 같은 추가 작업을 추가합니다.
- YOLOv8은 Ultralytics에서 2023년에 출시되었습니다. YOLOv8은 성능, 유연성, 효율성을 향상시키는 새로운 기능과 개선 사항을 도입하여 광범위한 시각적 AI 작업을 지원합니다.
- YOLOv9는 PGI(Programmable Gradient Information) 및 GELAN(Generalized Efficient Layer Aggregation Network)과 같은 혁신적인 방법을 도입했습니다.
- YOLOv10은 청화대학교 연구원들이 이 패키지를 사용하여 만들었습니다. UltralyticsPython 패키지에 의해 생성되었습니다. 이 버전은 엔드투엔드 헤드를 도입하고 비최대 억제(NMS) 요구 사항을 제거하여 실시간 객체 감지에서 진전을 이루었습니다.
- YOLOv11 🚀 새로운 기능: Ultralytics의 최신 YOLO 모델은 감지, 분할, 포즈 추정, 추적 및 분류를 포함한 여러 작업에서 최첨단(SOTA) 성능을 제공하며 광범위한 AI 애플리케이션 및 도메인의 기능을 활용합니다.
2. 작업 단계
컨테이너를 시작한 후 API 주소를 클릭하여 웹 인터페이스로 들어갑니다.

이 튜토리얼에는 5개의 함수가 포함되어 있습니다.
- 객체 감지
- 인스턴스 분할
- 이미지 분류
- 포즈 추정
- 위치 객체 감지
1. 객체 감지
물체 감지기출력은 이미지의 객체를 둘러싼 경계 상자 세트, 각 경계 상자의 클래스 레이블 및 신뢰도 점수입니다. 객체 감지는 장면에서 관심 있는 객체를 식별해야 하지만 객체의 정확한 위치나 모양을 알 필요는 없는 경우에 좋은 선택입니다.


그림 1 객체 감지
2. 인스턴스 분할
인스턴스 분할 모델출력은 이미지의 각 객체를 윤곽선으로 나타낸 마스크 또는 윤곽선 세트와 각 객체에 대한 클래스 레이블 및 신뢰도 점수입니다. 인스턴스 분할은 이미지에서 객체의 위치뿐만 아니라 정확한 모양도 알아야 할 때 매우 유용합니다.


그림 2 인스턴스 분할
3. 이미지 분류
이미지 분류기의 출력은 단일 클래스 레이블과 신뢰 점수입니다. 이미지 분류는 해당 클래스에 속한 객체의 위치나 정확한 모양을 몰라도 이미지가 어떤 클래스에 속하는지만 알면 되는 경우에 유용합니다.


그림 3 이미지 분류
4. 포즈 추정

포즈 추정은 이미지에서 특정 지점(종종 키포인트라고 함)의 위치를 식별하는 작업입니다. 주요 포인트는 관절, 랜드마크 또는 기타 중요한 특징과 같은 객체의 일부를 나타낼 수 있습니다. 주요 지점의 위치는 일반적으로 2D [x, y] 또는 3D [x, y, 가시광선] 좌표 집합으로 표현됩니다.
포즈 추정 모델의 출력은 이미지 내 객체의 주요 지점을 나타내는 지점의 집합이며, 일반적으로 각 지점에 대한 신뢰도 점수도 포함합니다. 포즈 추정은 장면에서 객체의 특정 부분과 각 부분의 상대적 위치를 식별해야 할 때 좋은 선택입니다.


그림 4 자세 추정
5. 지향 객체 감지
지향형 객체 감지는 객체 감지보다 한 단계 더 나아가 이미지에서 객체를 더 정확하게 찾을 수 있는 각도를 추가합니다.
방향성 객체 감지기의 출력은 이미지의 객체를 정확하게 둘러싸는 회전된 경계 상자 세트와 각 경계 상자에 대한 클래스 레이블 및 신뢰도 점수입니다. 객체 감지는 장면에서 관심 있는 객체를 식별해야 하지만 객체의 정확한 위치나 모양을 알 필요는 없는 경우에 좋은 선택입니다.


그림 5: 지향형 객체 감지
교류 및 토론
🖌️ 고품질 프로젝트를 발견하시면, 백그라운드에 메시지를 남겨 추천해주세요! 또한, 튜토리얼 교환 그룹도 만들었습니다. 친구들의 QR코드 스캔과 [SD 튜토리얼] 댓글을 통해 그룹에 가입하여 다양한 기술 이슈에 대해 논의하고 신청 결과를 공유해 주시기 바랍니다.↓
