Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
Ziel der deduktiven Datenbankarithmetik ist es, Daten in der Datenbank durch Inferenzregeln und mathematische Operationen abzuleiten und zu berechnen.
Methoden zur Präferenzausrichtung auf Token-Ebene zielen darauf ab, das Halluzinationsproblem in großen visuellen Sprachmodellen (LVLMs) zu reduzieren.
Die Skalierung zur Inferenzzeit ist eine Methode zur Verbesserung der Leistung großer Sprachmodelle (LLMs) durch Erhöhung der Rechenressourcen während der Inferenzphase.
Ziel der langsamen Wahrnehmung ist es, durch die Aufteilung des Wahrnehmungsprozesses eine detaillierte Wahrnehmung geometrischer Figuren zu erreichen, um so die Leistung großer multimodaler Modelle bei visuellen Denkaufgaben zu verbessern.
Thinking Evolution zielt darauf ab, die Nutzung von Rechenressourcen beim Schlussfolgerungsprozess auf innovative Weise zu erweitern, sodass Modelle komplexe Probleme effizienter bewältigen können.
Große Aktionsmodelle zielen darauf ab, den Übergang von der Sprachinteraktion zur Ausführung realer Aktionen zu erreichen und die KI in Richtung künstlicher allgemeiner Intelligenz (AGI) zu treiben.
Semantische Frequenzhinweise zielen darauf ab, die Einschränkungen traditioneller Methoden im räumlichen Bereich durch Analyse und selektives Lernen im Frequenzbereich zu beheben.
ASAL zielt darauf ab, den Simulationsraum im Bereich des künstlichen Lebens mithilfe grundlegender Modelle automatisch zu erkunden.
Beim Offline-Meta-Reinforcement-Learning geht es darum, Offline-Daten zum Trainieren von Modellen zu nutzen, damit diese sich ohne umfangreiche Online-Interaktionen schnell an neue Aufgaben oder neue Umgebungen anpassen können.
Bei der Out-of-Distribution-Generalisierung geht es darum, dem Modell die Aufrechterhaltung einer guten Leistung und Stabilität bei unbekannten oder ungesehenen Datenverteilungen zu ermöglichen.
Die universelle Approximationstheorie zeigt, dass ein neuronales Netzwerk mit ausreichend komplexer Struktur jede kontinuierliche Funktion mit beliebiger Genauigkeit approximieren kann.
Die Kernidee von DPO besteht darin, direkt auf der Grundlage menschlicher Präferenzdaten zu optimieren, ohne ein separates Belohnungsmodell zu trainieren oder bestärkendes Lernen zu verwenden.
Die Anleitung für Laien zielt darauf ab, die Schwierigkeit von Diffusionsmodellen im Bereich der bedingten Generierung zu behandeln.
Ziel der primären Geruchskarte ist es, den Zusammenhang zwischen der chemischen Struktur eines Geruchs und seinen olfaktorischen Wahrnehmungseigenschaften zu modellieren.
Bei der Erkennung von Abweichungen außerhalb der Verteilung geht es darum, Datenproben zu identifizieren, die während der Trainingsphase des Modells nicht abgedeckt wurden.
Star Attention kann die Inferenzzeit erheblich verkürzen, indem es den Speicherbedarf und die Inferenzzeit um das bis zu 11-fache reduziert und gleichzeitig eine Genauigkeit von 95-100% aufrechterhält.
UniSeg3D kann 6 verschiedene 3D-Punktwolkensegmentierungsaufgaben innerhalb desselben Modells implementieren.
Das numerische Verständnis und die numerische Verarbeitung zielen darauf ab, die Leistung großer Sprachmodelle (LLMs) im numerischen Bereich unabhängig zu bewerten.
Coconut befreit den Denkprozess vom traditionellen Sprachraum und ermöglicht dem Modell, direkt im kontinuierlichen latenten Raum zu denken.
Das Dichtegesetz beschreibt, dass die Leistungsdichte großer Sprachmodelle (LLMs) mit der Zeit exponentiell zunimmt.
Bei der Suche nach dem nächsten Nachbarn handelt es sich um ein algorithmisches Problem, bei dem es darum geht, den Punkt (oder die Menge von Punkten) in einer Datenbank oder einem Datensatz zu finden, der einem gegebenen Abfragepunkt am nächsten liegt.
Unter Nachbarsuche versteht man den Vorgang der Bestimmung der Nachbarpartikel um jedes Partikel (normalerweise ein Atom) in der Simulationsbox.
Bei der Single-Point-PageRank-Berechnung wird ein Random-Walk-Modell verwendet, um die Wichtigkeit eines Knotens zu bestimmen.
Bei der verstärkten Feinabstimmung werden überwachte Feinabstimmung und bestärkendes Lernen kombiniert, um die Fähigkeit des Modells zu optimieren, qualitativ hochwertige Antworten zu generieren.
Ziel der deduktiven Datenbankarithmetik ist es, Daten in der Datenbank durch Inferenzregeln und mathematische Operationen abzuleiten und zu berechnen.
Methoden zur Präferenzausrichtung auf Token-Ebene zielen darauf ab, das Halluzinationsproblem in großen visuellen Sprachmodellen (LVLMs) zu reduzieren.
Die Skalierung zur Inferenzzeit ist eine Methode zur Verbesserung der Leistung großer Sprachmodelle (LLMs) durch Erhöhung der Rechenressourcen während der Inferenzphase.
Ziel der langsamen Wahrnehmung ist es, durch die Aufteilung des Wahrnehmungsprozesses eine detaillierte Wahrnehmung geometrischer Figuren zu erreichen, um so die Leistung großer multimodaler Modelle bei visuellen Denkaufgaben zu verbessern.
Thinking Evolution zielt darauf ab, die Nutzung von Rechenressourcen beim Schlussfolgerungsprozess auf innovative Weise zu erweitern, sodass Modelle komplexe Probleme effizienter bewältigen können.
Große Aktionsmodelle zielen darauf ab, den Übergang von der Sprachinteraktion zur Ausführung realer Aktionen zu erreichen und die KI in Richtung künstlicher allgemeiner Intelligenz (AGI) zu treiben.
Semantische Frequenzhinweise zielen darauf ab, die Einschränkungen traditioneller Methoden im räumlichen Bereich durch Analyse und selektives Lernen im Frequenzbereich zu beheben.
ASAL zielt darauf ab, den Simulationsraum im Bereich des künstlichen Lebens mithilfe grundlegender Modelle automatisch zu erkunden.
Beim Offline-Meta-Reinforcement-Learning geht es darum, Offline-Daten zum Trainieren von Modellen zu nutzen, damit diese sich ohne umfangreiche Online-Interaktionen schnell an neue Aufgaben oder neue Umgebungen anpassen können.
Bei der Out-of-Distribution-Generalisierung geht es darum, dem Modell die Aufrechterhaltung einer guten Leistung und Stabilität bei unbekannten oder ungesehenen Datenverteilungen zu ermöglichen.
Die universelle Approximationstheorie zeigt, dass ein neuronales Netzwerk mit ausreichend komplexer Struktur jede kontinuierliche Funktion mit beliebiger Genauigkeit approximieren kann.
Die Kernidee von DPO besteht darin, direkt auf der Grundlage menschlicher Präferenzdaten zu optimieren, ohne ein separates Belohnungsmodell zu trainieren oder bestärkendes Lernen zu verwenden.
Die Anleitung für Laien zielt darauf ab, die Schwierigkeit von Diffusionsmodellen im Bereich der bedingten Generierung zu behandeln.
Ziel der primären Geruchskarte ist es, den Zusammenhang zwischen der chemischen Struktur eines Geruchs und seinen olfaktorischen Wahrnehmungseigenschaften zu modellieren.
Bei der Erkennung von Abweichungen außerhalb der Verteilung geht es darum, Datenproben zu identifizieren, die während der Trainingsphase des Modells nicht abgedeckt wurden.
Star Attention kann die Inferenzzeit erheblich verkürzen, indem es den Speicherbedarf und die Inferenzzeit um das bis zu 11-fache reduziert und gleichzeitig eine Genauigkeit von 95-100% aufrechterhält.
UniSeg3D kann 6 verschiedene 3D-Punktwolkensegmentierungsaufgaben innerhalb desselben Modells implementieren.
Das numerische Verständnis und die numerische Verarbeitung zielen darauf ab, die Leistung großer Sprachmodelle (LLMs) im numerischen Bereich unabhängig zu bewerten.
Coconut befreit den Denkprozess vom traditionellen Sprachraum und ermöglicht dem Modell, direkt im kontinuierlichen latenten Raum zu denken.
Das Dichtegesetz beschreibt, dass die Leistungsdichte großer Sprachmodelle (LLMs) mit der Zeit exponentiell zunimmt.
Bei der Suche nach dem nächsten Nachbarn handelt es sich um ein algorithmisches Problem, bei dem es darum geht, den Punkt (oder die Menge von Punkten) in einer Datenbank oder einem Datensatz zu finden, der einem gegebenen Abfragepunkt am nächsten liegt.
Unter Nachbarsuche versteht man den Vorgang der Bestimmung der Nachbarpartikel um jedes Partikel (normalerweise ein Atom) in der Simulationsbox.
Bei der Single-Point-PageRank-Berechnung wird ein Random-Walk-Modell verwendet, um die Wichtigkeit eines Knotens zu bestimmen.
Bei der verstärkten Feinabstimmung werden überwachte Feinabstimmung und bestärkendes Lernen kombiniert, um die Fähigkeit des Modells zu optimieren, qualitativ hochwertige Antworten zu generieren.