Command Palette
Search for a command to run...
Kascade: Eine praktische spärliche Aufmerksamkeitsmethode für die Long-Context-LLM-Inferenz
Kascade: Eine praktische spärliche Aufmerksamkeitsmethode für die Long-Context-LLM-Inferenz
Dhruv Deshmukh Saurabh Goyal Nipun Kwatra Ramachandran Ramjee
Abstract
Aufmerksamkeit ist die dominierende Quelle der Latenz bei der Inferenz langen Kontexts bei großen Sprachmodellen (LLM), einer zunehmend populären Arbeitslast bei Reasoning-Modellen und RAG-Anwendungen. Wir stellen Kascade vor, eine trainingsfreie Methode für spärliche Aufmerksamkeit, die bekannte Beobachtungen nutzt, darunter 1) die Post-Softmax-Aufmerksamkeit ist intrinsisch spärlich, und 2) die Identität der Schlüssel mit hohen Gewichten über benachbarte Schichten stabil bleibt. Kascade berechnet exakte Top-k-Indizes in einer kleinen Menge von Anchor-Schichten und nutzt diese Indizes dann in dazwischenliegenden Wiederverwendungs-Schichten. Die Anchor-Schichten werden algorithmisch ausgewählt, wobei ein dynamisch-programmierter Ansatz eingesetzt wird, der die Kreuzschicht-Ähnlichkeit auf einer Entwicklungs-Menge maximiert, wodurch eine einfache Anwendung über verschiedene Modelle hinweg ermöglicht wird. Die Methode berücksichtigt effiziente Implementierungsbedingungen (z. B. Tile-ebene Operationen) sowohl bei der Prefill- als auch bei der Decode-Aufmerksamkeit. Die Top-k-Auswahl und -Wiederverwendung in Kascade ist kopf-orientiert, und unsere Experimente zeigen, dass dies entscheidend für hohe Genauigkeit ist. Kascade erreicht auf H100-GPUs bis zu 4,1-fache Beschleunigung bei der Decode-Aufmerksamkeit und bis zu 2,2-fache Beschleunigung bei der Prefill-Aufmerksamkeit im Vergleich zur FlashAttention-3-Basislinie, während die Genauigkeit bei langen Kontext-Benchmarks wie LongBench und AIME-24 nahe an der dichten Aufmerksamkeit bleibt.