HyperAI

Cadre DQ-LoRe

Ce cadre a été développé par l'Université Sun Yat-sen et l'Université chinoise de Hong Kong dans leur article 「DQ-LORE : REQUETES DOUBLES AVEC APPROXIMATION DE FAIBLE RANG RECLASSEMENT POUR L'APPRENTISSAGE EN CONTEXTE」Proposé dans.

Dans cette étude, l'équipe a introduit un cadre qui utilise la « requête double » (DQ) et réarrangement approximatif de bas rang (Traditions)" sélectionne automatiquement des exemples d'apprentissage contextuel. Les expériences montrent que DQ-LoRe surpasse les méthodes précédentes dans la sélection automatique des exemples GPT-4, avec une précision améliorée de 92,5% à 94,2%, ouvrant une nouvelle voie aux LLM pour résoudre des problèmes de raisonnement complexes. L'analyse complète de l'équipe de recherche montre en outre que DQ-LoRe surpasse systématiquement les méthodes basées sur la récupération en termes de performances et d'adaptabilité, en particulier dans les scénarios caractérisés par des changements de distribution. DQ-LoRe repousse les limites de l'apprentissage situé et ouvre de nouvelles voies pour résoudre des défis de raisonnement complexes.