HyperAIHyperAI

Command Palette

Search for a command to run...

SAM 2 : Segmenter n'importe quoi dans les images et les vidéos

Résumé

Nous présentons Segment Anything Model 2 (SAM 2), un modèle fondamental visant à résoudre la segmentation visuelle pilotée par des commandes dans les images et les vidéos. Nous avons conçu un moteur de données qui améliore à la fois le modèle et les données grâce à l’interaction utilisateur, permettant ainsi de collecter le plus grand ensemble de données de segmentation vidéo à ce jour. Notre modèle repose sur une architecture de transformer simple dotée d’une mémoire en flux (streaming memory) pour un traitement vidéo en temps réel. Entraîné sur nos données, SAM 2 obtient de solides performances sur une large gamme de tâches. En segmentation vidéo, nous observons une meilleure précision, avec trois fois moins d’interactions qu’avec les approches antérieures. En segmentation d’image, notre modèle est à la fois plus précis et six fois plus rapide que le Segment Anything Model (SAM). Nous estimons que nos données, notre modèle et nos découvertes marqueront une étape importante pour la segmentation vidéo et les tâches de perception associées. Nous mettons à disposition une version de notre modèle, l’ensemble de données et une démonstration interactive.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
SAM 2 : Segmenter n'importe quoi dans les images et les vidéos | Articles | HyperAI