HyperAIHyperAI

Command Palette

Search for a command to run...

il y a un mois

Moins, c'est mieux : un raisonnement récursif avec des réseaux réduits

Alexia Jolicoeur-Martineau

Moins, c'est mieux : un raisonnement récursif avec des réseaux réduits

Résumé

Le Modèle de raisonnement hiérarchique (HRM) est une nouvelle approche fondée sur deux réseaux de neurones de petite taille qui s’auto-répètent à des fréquences différentes. Inspirée de la biologie, cette méthode surpasse les grands modèles linguistiques (LLM) sur des tâches complexes telles que le Sudoku, les labyrinthes et ARC-AGI, tout en étant entraînée avec des modèles réduits (27 millions de paramètres) sur de petits jeux de données (environ 1 000 exemples). Le HRM s’annonce prometteur pour résoudre des problèmes difficiles à l’aide de réseaux peu volumineux, mais il reste mal compris et pourrait être sous-optimal. Nous proposons le Modèle récursif miniature (TRM), une approche de raisonnement récursif bien plus simple, qui atteint une généralisation nettement supérieure à celle du HRM, tout en utilisant un unique réseau très petit de seulement deux couches. Avec seulement 7 millions de paramètres, le TRM obtient une précision de test de 45 % sur ARC-AGI-1 et de 8 % sur ARC-AGI-2, des résultats supérieurs à ceux de la plupart des LLM (par exemple Deepseek R1, o3-mini, Gemini 2.5 Pro), bien que ces derniers disposent de moins de 0,01 % du nombre de paramètres.

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.

Co-codage IA
GPU prêts à utiliser
Meilleurs prix
Commencer

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Moins, c'est mieux : un raisonnement récursif avec des réseaux réduits | Articles de recherche | HyperAI