HyperAIHyperAI
il y a 2 mois

MyGO Multiplex CoT : Une Méthode de Réflexion sur Soi-même dans les Grands Modèles Linguistiques par le Biais de la Pensée en Double Chaîne

Shihao Ji; Zihui Song; Fucheng Zhong; Jisen Jia; Zhaobo Wu; Zheyi Cao; Tianhao Xu
MyGO Multiplex CoT : Une Méthode de Réflexion sur Soi-même dans les Grands Modèles Linguistiques par le Biais de la Pensée en Double Chaîne
Résumé

Les récentes avancées dans les grands modèles de langage (LLMs) ont démontré leurs capacités impressionnantes dans diverses tâches de raisonnement et de prise de décision. Cependant, la qualité et la cohérence du processus de raisonnement peuvent encore bénéficier d'une introspection et d'une réflexion sur soi-même améliorées. Dans cet article, nous présentons Multiplex CoT (Chain of Thought), une méthode qui permet aux LLMs de simuler une forme d'auto-révise en cours de raisonnement, en initiant un double processus Chain of Thought (CoT). Multiplex CoT exploite la puissance du raisonnement itératif, où le modèle génère une chaîne de pensée initiale puis critique et affine cette raison avec une deuxième génération de pensée. Cette approche récursive permet des réponses plus cohérentes, logiques et robustes, améliorant ainsi le processus global de prise de décision. Nous montrons comment cette méthode peut être mise en œuvre efficacement à l'aide d'une ingénierie simple des prompts dans les architectures existantes des LLMs, atteignant un effet similaire à celui du modèle d'Apprentissage-Raffinement (LRM) sans nécessiter un entraînement supplémentaire. De plus, nous fournissons un guide pratique pour l'implémentation de la méthode dans Google Colab, facilitant son intégration dans des applications réelles.

MyGO Multiplex CoT : Une Méthode de Réflexion sur Soi-même dans les Grands Modèles Linguistiques par le Biais de la Pensée en Double Chaîne | Articles de recherche récents | HyperAI