HyperAIHyperAI

Command Palette

Search for a command to run...

DHOG : Regroupement hiérarchique profond d'objets

Luke Nicholas Darlow Amos Storkey

Résumé

Récemment, plusieurs méthodes concurrentes ont abordé l’apprentissage non supervisé de représentations en maximisant l’information mutuelle entre les représentations issues de transformations d’images. Les représentations ainsi obtenues sont invariantes vis-à-vis des stratégies aléatoires d’augmentation et peuvent être utilisées pour des tâches ultérieures telles que le regroupement ou la classification. Toutefois, les augmentations de données préservent de nombreuses propriétés d’une image, ce qui laisse place à un choix sous-optimal de représentation fondé sur des caractéristiques faciles à détecter. Nous démontrons que les méthodes gourmandes ou locales de maximisation de l’information mutuelle (telles que l’optimisation par gradient stochastique) convergent vers des optima locaux du critère d’information mutuelle ; les représentations ainsi produites s’avèrent donc moins adaptées aux tâches descendantes complexes. Les travaux antérieurs n’ont pas spécifiquement identifié ni abordé ce problème. Nous proposons Deep Hierarchical Object Grouping (DHOG), une méthode qui calcule une série de représentations discrètes distinctes des images selon un ordre hiérarchique, aboutissant finalement à des représentations mieux optimisées selon l’objectif d’information mutuelle. Nous observons également que ces représentations s’alignent mieux sur la tâche descendante de regroupement selon des classes d’objets sous-jacentes. Nous avons évalué DHOG sur le regroupement non supervisé, une évaluation naturelle car la représentation cible est une étiquetage discret des données. Nous obtenons de nouveaux résultats d’état de l’art sur les trois principales benchmarks, sans recourir à aucun prétraitement ni à la détection de contours de Sobel, qui étaient nécessaires pour le bon fonctionnement de nombreuses méthodes antérieures. Nous obtenons des améliorations en précision de : 4,3 % sur CIFAR-10, 1,5 % sur CIFAR-100-20, et 7,2 % sur SVHN.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
DHOG : Regroupement hiérarchique profond d'objets | Articles | HyperAI