Détection D'objets De Bout En Bout En Temps Réel YOLOv10
YOLOv10 améliore à la fois les performances et l'efficacité, la meilleure pratique de l'algorithme de détection d'objets !

Ce tutoriel est un tutoriel d'application gradio pour YOLOv10.
Introduction
La série YOLO (You Only Look Once) est actuellement l'algorithme de détection d'objets côté bord le plus répandu. Cette idée a été proposée pour la première fois par Joseph Redmon et d’autres. Il est devenu une référence dans le domaine de la détection d'objets en temps réel car il atteint un équilibre efficace entre le coût de calcul et les performances de détection. Au fil du temps, la série d’algorithmes YOLO a été continuellement développée et améliorée, et plusieurs versions ont été publiées. Chaque version a fait des progrès significatifs dans la conception de l'architecture, les objectifs d'optimisation, les stratégies d'amélioration des données, etc.
YOLOv10 est une méthode de détection de cibles en temps réel développée par des chercheurs de l'Université Tsinghua sur la base du package Python Ultralytics, qui vise à combler les lacunes des versions précédentes de YOLO en matière de post-traitement et d'architecture de modèle. En éliminant la suppression non maximale (NMS) et en optimisant divers composants du modèle, YOLOv10 atteint des performances de pointe tout en réduisant considérablement la surcharge de calcul. L'équipe de recherche a publié un article « YOLOv10 : Détection d'objets de bout en bout en temps réel »Le cadre d'étude est expliqué en détail.
Les principales caractéristiques de YOLOv10 incluent :
- Formation sans NMS : exploitez une double affectation cohérente pour éliminer le besoin de NMS, réduisant ainsi la latence d'inférence.
- Conception de modèle holistique : divers composants sont entièrement optimisés du point de vue de l'efficacité et de la précision, notamment la tête de classification légère, le sous-échantillonnage du découplage des canaux spatiaux et la conception de blocs guidée par rang.
- Capacités de modèle améliorées : l'intégration de modules de convolution de noyau volumineux et d'auto-attention partielle améliore les performances sans ajouter de coût de calcul significatif.
Affichage des effets

Comment courir
1. Après avoir cloné le conteneur, attendez que le système alloue des ressources

2. Effectuer la détection d'image
