Command Palette
Search for a command to run...
∞-former: Transformer mit unendlichem Gedächtnis
∞-former: Transformer mit unendlichem Gedächtnis
Pedro Henrique Martins Zita Marinho André F. T. Martins
Zusammenfassung
Transformers sind nicht in der Lage, langfristige Erinnerungen effektiv zu modellieren, da die benötigte Rechenleistung mit der Länge des Kontexts ansteigt. Obwohl verschiedene effiziente Varianten von Transformers vorgeschlagen wurden, weisen alle eine endliche Speicherkapazität auf und sind gezwungen, alte Informationen zu verwerfen. In diesem Paper stellen wir den ∞-former vor, der den klassischen Transformer mit einem unbeschränkten Langzeitgedächtnis erweitert. Durch die Nutzung eines kontinuierlichen Raum-Attention-Mechanismus zur Aufmerksamkeit über das Langzeitgedächtnis wird die Komplexität der Aufmerksamkeit des ∞-former unabhängig von der Kontextlänge, wobei ein Kompromiss zwischen Speicherdauer und Präzision eingegangen wird. Um zu steuern, wo höhere Präzision erforderlich ist, hält der ∞-former „klebrige Erinnerungen“ aufrecht, wodurch beliebig lange Kontexte modelliert werden können, während das Berechnungsbudget konstant bleibt. Experimente an einer synthetischen Sortieraufgabe, der Sprachmodellierung und der dokumentenbasierten Dialoggenerierung demonstrieren die Fähigkeit des ∞-former, Informationen aus langen Sequenzen zu bewahren.