HyperAIHyperAI
vor 7 Tagen

Tree of Thoughts: Deliberative Problem Solving mit großen Sprachmodellen

Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Cao, Karthik Narasimhan
Tree of Thoughts: Deliberative Problem Solving mit großen Sprachmodellen
Abstract

Sprachmodelle werden zunehmend für allgemeine Problemlösungsaufgaben in einer Vielzahl von Bereichen eingesetzt, sind jedoch während der Inferenz weiterhin auf tokenbasierte, von links nach rechts verlaufende Entscheidungsprozesse beschränkt. Dies führt dazu, dass sie bei Aufgaben versagen können, die Exploration, strategische Vorausschau oder entscheidende erste Entscheidungen erfordern. Um diese Herausforderungen zu überwinden, stellen wir einen neuen Rahmen für die Inferenz von Sprachmodellen vor: den „Tree of Thoughts“ (ToT). Dieser erweitert den populären Ansatz des „Chain of Thought“ zur Prompting von Sprachmodellen und ermöglicht die Exploration kohärenter Texteinheiten („Gedanken“), die als Zwischenschritte bei der Problemlösung dienen. ToT erlaubt es Sprachmodellen, bewusste Entscheidungen zu treffen, indem sie mehrere verschiedene Schlussfolgerungspfade berücksichtigen, eigene Wahlmöglichkeiten bewerten, um den nächsten Schritt zu entscheiden, sowie bei Bedarf vorausschauend planen oder zurückverfolgen, um globale Entscheidungen zu treffen. Unsere Experimente zeigen, dass ToT die Problemlösungsfähigkeiten von Sprachmodellen erheblich verbessert, insbesondere bei drei neuen Aufgaben, die anspruchsvolles Planen oder Suchen erfordern: „Game of 24“, kreatives Schreiben und Mini-Kreuzworträtsel. Beispielsweise löste GPT-4 mit Chain-of-Thought-Prompting lediglich 4 % der Aufgaben im „Game of 24“, während unsere Methode eine Erfolgsquote von 74 % erreichte. Code-Repository mit allen Prompts: https://github.com/princeton-nlp/tree-of-thought-llm.

Tree of Thoughts: Deliberative Problem Solving mit großen Sprachmodellen | Neueste Forschungsarbeiten | HyperAI