Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Definitionen und Erklärungen wichtiger KI- und ML-Konzepte erkunden
Graph Attention Networks (GATs) sind eine Art neuronales Netzwerk, das für graphisch strukturierte Daten entwickelt wurde. Sie wurden 2017 von Petar Veličković und seinen Kollegen vorgeschlagen. Das zugehörige Papier trägt den Titel „Graph Attention Networks (GATs)“.
Message Passing Neural Networks (MPNN) ist ein neuronales Netzwerk-Framework zur Verarbeitung graphisch strukturierter Daten. Es wurde von Gilmer et al. vorgeschlagen. im Jahr 2017. Das zugehörige Papier trägt den Titel „Neural Messa […]
Graph Convolutional Networks (GCN), Kipf und Welling veröffentlichten auf der ICLR-Konferenz 2017 ein Papier mit dem Titel „Semi-Supervised Classification“.
Die Gated Recurrent Unit (GRU) ist eine Variante des von Cho et al. vorgeschlagenen Recurrent Neural Network (RNN). im Jahr 2014. Das zugehörige Papier trägt den Titel „Empirical Evaluation of Gate […]
AlexNet ist ein tiefes Convolutional Neural Network (CNN), das 2012 von Alex Krizhevsky, Ilya Sutskever und Geoffrey Hinton vorgeschlagen und im selben Jahr im ImageNet-Bildklassifizierungswettbewerb verwendet wurde.
CART Decision Tree ist ein Entscheidungsbaumalgorithmus, der für Klassifizierungs- und Regressionsaufgaben verwendet werden kann.
Gradient Boosting ist ein Ensemble-Lernalgorithmus, der durch die Kombination mehrerer schwacher Vorhersagemodelle (normalerweise Entscheidungsbäume) ein starkes Vorhersagemodell erstellt.
LeNet-5 ist eine Pionierarbeit auf dem Gebiet des Deep Learning und der Convolutional Neural Networks, die den Grundstein für viele Schlüsselkonzepte des modernen Deep Learning legte, wie etwa Convolutional Layers, Pooling Layers und Fully Connected Layers.
Bei den Qualifikationsfragen geht es darum, wie alle Bedingungen oder Faktoren ermittelt werden können, die für die erfolgreiche Durchführung einer Aktion oder eines Ereignisses in einer sich ändernden Umgebung erforderlich sind.
ReAct schlägt ein allgemeines Paradigma vor, das Fortschritte im Denken und Handeln kombiniert, um Sprachmodellen die Lösung einer Vielzahl von Aufgaben im Bereich sprachliches Denken und Entscheidungsfindung zu ermöglichen.
Pre-training Once ist ein selbstüberwachtes Trainingsframework mit drei Zweigen, das elastische Studentenzweige einführt und in jedem Vortrainingsschritt zufällig Teilnetzwerke für das Training auswählt.
FlexAttention ist ein flexibler Aufmerksamkeitsmechanismus, der die Effizienz hochauflösender Vision-Language-Modelle verbessern soll.
FlashAttention ist ein effizienter und speicherfreundlicher Aufmerksamkeitsalgorithmus.
Causal Attention (CATT) ist ein innovativer Aufmerksamkeitsmechanismus, der die Interpretierbarkeit und Leistung von Modellen durch die Einbeziehung kausaler Inferenz verbessert, insbesondere bei Vision-Language-Aufgaben. Dieser Mechanismus wurde 20 [...] von Forschern der Nanyang Technological University und der Monash University in Australien entdeckt.
Gedankenbäume verallgemeinern den beliebten Ansatz der Gedankenverkettung auf schnelle Sprachmodelle und ermöglichen die Erkundung zusammenhängender Texteinheiten (Gedanken) als Zwischenschritte bei der Problemlösung.
Die MoMa-Architektur ist eine neuartige, modalitätsbewusste Mischung aus Expertenarchitektur (MoE), die für das Vortraining gemischtmodaler Sprachmodelle für die frühe Fusion entwickelt wurde.
Multi-step Error Minimization (MEM) wurde 2024 vom Institute of Information Engineering der Chinesischen Akademie der Wissenschaften, der Nanyang Technological University, der National University of Singapore und der Sun Yat-sen University in der Arbeit „Multimodal Unlearnable E […]“ veröffentlicht.
Die geometrische Langlands-Vermutung ist eine geometrische Version des Langlands-Programms.
Das Langlands-Programm ist ein äußerst einflussreiches Forschungsfeld in der modernen Mathematik. Es umfasst mehrere Zweige der Mathematik, wie Zahlentheorie, algebraische Geometrie und Gruppendarstellungstheorie, und versucht, die tiefgreifenden Zusammenhänge zwischen ihnen aufzudecken.
Ein anwendungsspezifischer integrierter Schaltkreis (ASIC) ist ein integrierter Schaltkreis, der entsprechend den spezifischen Benutzeranforderungen und den Anforderungen eines bestimmten elektronischen Systems entwickelt und hergestellt wird.
Der Begriff „Wallclock Time“ wird zur Messung der Laufzeit eines Programms oder Prozesses verwendet. Es handelt sich dabei um die tatsächliche Zeit vom Beginn bis zum Ende der Programmausführung, einschließlich aller Arten von Warte- und Sperrzeiten.
Die Pareto-Front ist ein Schlüsselkonzept der Mehrzieloptimierung und bezieht sich auf eine Reihe von Lösungen, die den besten Kompromiss zwischen mehreren Zielen erzielen.
Stride ist ein Begriff, der häufig in der Bildverarbeitung und in Convolutional Neural Networks (CNN) verwendet wird. Im Kontext der Bildverarbeitung bezieht sich Schrittweite auf die Anzahl der Schritte, die das Arbeitsfenster über das Bild zurücklegt, wenn eine Operation auf das Bild angewendet wird, z. B. Zuschneiden, Merkmalsextraktion oder Filtern. Wenn Sie beispielsweise ein Bild zuschneiden, […]
Dynamic Prompts ist eine Eingabeaufforderungstechnologie, die eine dynamische Anpassung von Eingabeaufforderungen basierend auf bestimmten Aufgaben oder Instanzen in der Verarbeitung natürlicher Sprache (NLP) und anderen Anwendungen der künstlichen Intelligenz ermöglicht. Diese Technik kann die Leistung und Anpassungsfähigkeit des Modells erheblich verbessern. Dyn […]
Graph Attention Networks (GATs) sind eine Art neuronales Netzwerk, das für graphisch strukturierte Daten entwickelt wurde. Sie wurden 2017 von Petar Veličković und seinen Kollegen vorgeschlagen. Das zugehörige Papier trägt den Titel „Graph Attention Networks (GATs)“.
Message Passing Neural Networks (MPNN) ist ein neuronales Netzwerk-Framework zur Verarbeitung graphisch strukturierter Daten. Es wurde von Gilmer et al. vorgeschlagen. im Jahr 2017. Das zugehörige Papier trägt den Titel „Neural Messa […]
Graph Convolutional Networks (GCN), Kipf und Welling veröffentlichten auf der ICLR-Konferenz 2017 ein Papier mit dem Titel „Semi-Supervised Classification“.
Die Gated Recurrent Unit (GRU) ist eine Variante des von Cho et al. vorgeschlagenen Recurrent Neural Network (RNN). im Jahr 2014. Das zugehörige Papier trägt den Titel „Empirical Evaluation of Gate […]
AlexNet ist ein tiefes Convolutional Neural Network (CNN), das 2012 von Alex Krizhevsky, Ilya Sutskever und Geoffrey Hinton vorgeschlagen und im selben Jahr im ImageNet-Bildklassifizierungswettbewerb verwendet wurde.
CART Decision Tree ist ein Entscheidungsbaumalgorithmus, der für Klassifizierungs- und Regressionsaufgaben verwendet werden kann.
Gradient Boosting ist ein Ensemble-Lernalgorithmus, der durch die Kombination mehrerer schwacher Vorhersagemodelle (normalerweise Entscheidungsbäume) ein starkes Vorhersagemodell erstellt.
LeNet-5 ist eine Pionierarbeit auf dem Gebiet des Deep Learning und der Convolutional Neural Networks, die den Grundstein für viele Schlüsselkonzepte des modernen Deep Learning legte, wie etwa Convolutional Layers, Pooling Layers und Fully Connected Layers.
Bei den Qualifikationsfragen geht es darum, wie alle Bedingungen oder Faktoren ermittelt werden können, die für die erfolgreiche Durchführung einer Aktion oder eines Ereignisses in einer sich ändernden Umgebung erforderlich sind.
ReAct schlägt ein allgemeines Paradigma vor, das Fortschritte im Denken und Handeln kombiniert, um Sprachmodellen die Lösung einer Vielzahl von Aufgaben im Bereich sprachliches Denken und Entscheidungsfindung zu ermöglichen.
Pre-training Once ist ein selbstüberwachtes Trainingsframework mit drei Zweigen, das elastische Studentenzweige einführt und in jedem Vortrainingsschritt zufällig Teilnetzwerke für das Training auswählt.
FlexAttention ist ein flexibler Aufmerksamkeitsmechanismus, der die Effizienz hochauflösender Vision-Language-Modelle verbessern soll.
FlashAttention ist ein effizienter und speicherfreundlicher Aufmerksamkeitsalgorithmus.
Causal Attention (CATT) ist ein innovativer Aufmerksamkeitsmechanismus, der die Interpretierbarkeit und Leistung von Modellen durch die Einbeziehung kausaler Inferenz verbessert, insbesondere bei Vision-Language-Aufgaben. Dieser Mechanismus wurde 20 [...] von Forschern der Nanyang Technological University und der Monash University in Australien entdeckt.
Gedankenbäume verallgemeinern den beliebten Ansatz der Gedankenverkettung auf schnelle Sprachmodelle und ermöglichen die Erkundung zusammenhängender Texteinheiten (Gedanken) als Zwischenschritte bei der Problemlösung.
Die MoMa-Architektur ist eine neuartige, modalitätsbewusste Mischung aus Expertenarchitektur (MoE), die für das Vortraining gemischtmodaler Sprachmodelle für die frühe Fusion entwickelt wurde.
Multi-step Error Minimization (MEM) wurde 2024 vom Institute of Information Engineering der Chinesischen Akademie der Wissenschaften, der Nanyang Technological University, der National University of Singapore und der Sun Yat-sen University in der Arbeit „Multimodal Unlearnable E […]“ veröffentlicht.
Die geometrische Langlands-Vermutung ist eine geometrische Version des Langlands-Programms.
Das Langlands-Programm ist ein äußerst einflussreiches Forschungsfeld in der modernen Mathematik. Es umfasst mehrere Zweige der Mathematik, wie Zahlentheorie, algebraische Geometrie und Gruppendarstellungstheorie, und versucht, die tiefgreifenden Zusammenhänge zwischen ihnen aufzudecken.
Ein anwendungsspezifischer integrierter Schaltkreis (ASIC) ist ein integrierter Schaltkreis, der entsprechend den spezifischen Benutzeranforderungen und den Anforderungen eines bestimmten elektronischen Systems entwickelt und hergestellt wird.
Der Begriff „Wallclock Time“ wird zur Messung der Laufzeit eines Programms oder Prozesses verwendet. Es handelt sich dabei um die tatsächliche Zeit vom Beginn bis zum Ende der Programmausführung, einschließlich aller Arten von Warte- und Sperrzeiten.
Die Pareto-Front ist ein Schlüsselkonzept der Mehrzieloptimierung und bezieht sich auf eine Reihe von Lösungen, die den besten Kompromiss zwischen mehreren Zielen erzielen.
Stride ist ein Begriff, der häufig in der Bildverarbeitung und in Convolutional Neural Networks (CNN) verwendet wird. Im Kontext der Bildverarbeitung bezieht sich Schrittweite auf die Anzahl der Schritte, die das Arbeitsfenster über das Bild zurücklegt, wenn eine Operation auf das Bild angewendet wird, z. B. Zuschneiden, Merkmalsextraktion oder Filtern. Wenn Sie beispielsweise ein Bild zuschneiden, […]
Dynamic Prompts ist eine Eingabeaufforderungstechnologie, die eine dynamische Anpassung von Eingabeaufforderungen basierend auf bestimmten Aufgaben oder Instanzen in der Verarbeitung natürlicher Sprache (NLP) und anderen Anwendungen der künstlichen Intelligenz ermöglicht. Diese Technik kann die Leistung und Anpassungsfähigkeit des Modells erheblich verbessern. Dyn […]