Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Definitionen und Erklärungen wichtiger KI- und ML-Konzepte erkunden
PENCIL zielt darauf ab, großen Modellen das dynamische Löschen unnötiger Zwischenergebnisse während des Generierungsprozesses zu ermöglichen, bis die endgültige Antwort vorliegt.
RAP ist ein hochauflösendes Bildwahrnehmungs-Plugin basierend auf der RAG-Technologie, das kein Training erfordert.
Die Wortfehlerrate ist ein wichtiger Indikator zur Bewertung der Leistung von Spracherkennungs- oder Textabgleichsystemen.
Mit der Sprecherähnlichkeit soll gemessen werden, ob zwei Sprachproben vom selben Sprecher stammen oder wie ähnlich die beiden Proben sind.
Geführtes Sampling ist eine Technik zur Verbesserung der Stichprobenqualität in generativen Modellen mit dem Ziel, die Steuerbarkeit generativer Modelle zu verbessern.
Die oberflächliche Selbstreflexion zielt darauf ab, die Leistung der aktuellen Aufgabe oder des aktuellen Verhaltens schnell zu optimieren, indem durch sofortiges Feedback lokale Anpassungen am Modell vorgenommen werden.
Die Visualisierung multimodalen Denkens zielt darauf ab, durch die Zusammenarbeit mehrerer verschiedener Modalitäten eine intuitivere und umfassendere Darstellung von Denk-, Entscheidungs- und Informationsverarbeitungsprozessen zu ermöglichen.
Sparse Autoencoder ist ein unüberwachter Algorithmus für maschinelles Lernen.
Ziel der kontinuierlichen Konzeptmischung ist die Generierung neuer Datenproben durch die Mischung unterschiedlicher Konzepte oder Merkmale, um die Lern- und Denkfähigkeiten des Modells zu erweitern.
Ziel der deduktiven Datenbankarithmetik ist es, Daten in der Datenbank durch Inferenzregeln und mathematische Operationen abzuleiten und zu berechnen.
Methoden zur Präferenzausrichtung auf Token-Ebene zielen darauf ab, das Halluzinationsproblem in großen visuellen Sprachmodellen (LVLMs) zu reduzieren.
Die Skalierung zur Inferenzzeit ist eine Methode zur Verbesserung der Leistung großer Sprachmodelle (LLMs) durch Erhöhung der Rechenressourcen während der Inferenzphase.
Ziel der langsamen Wahrnehmung ist es, durch die Aufteilung des Wahrnehmungsprozesses eine detaillierte Wahrnehmung geometrischer Figuren zu erreichen, um so die Leistung großer multimodaler Modelle bei visuellen Denkaufgaben zu verbessern.
Thinking Evolution zielt darauf ab, die Nutzung von Rechenressourcen beim Schlussfolgerungsprozess auf innovative Weise zu erweitern, sodass Modelle komplexe Probleme effizienter bewältigen können.
Große Aktionsmodelle zielen darauf ab, den Übergang von der Sprachinteraktion zur Ausführung realer Aktionen zu erreichen und die KI in Richtung künstlicher allgemeiner Intelligenz (AGI) zu treiben.
Semantische Frequenzhinweise zielen darauf ab, die Einschränkungen traditioneller Methoden im räumlichen Bereich durch Analyse und selektives Lernen im Frequenzbereich zu beheben.
ASAL zielt darauf ab, den Simulationsraum im Bereich des künstlichen Lebens mithilfe grundlegender Modelle automatisch zu erkunden.
Beim Offline-Meta-Reinforcement-Learning geht es darum, Offline-Daten zum Trainieren von Modellen zu nutzen, damit diese sich ohne umfangreiche Online-Interaktionen schnell an neue Aufgaben oder neue Umgebungen anpassen können.
Bei der Out-of-Distribution-Generalisierung geht es darum, dem Modell die Aufrechterhaltung einer guten Leistung und Stabilität bei unbekannten oder ungesehenen Datenverteilungen zu ermöglichen.
Die universelle Approximationstheorie zeigt, dass ein neuronales Netzwerk mit ausreichend komplexer Struktur jede kontinuierliche Funktion mit beliebiger Genauigkeit approximieren kann.
Die Kernidee von DPO besteht darin, direkt auf der Grundlage menschlicher Präferenzdaten zu optimieren, ohne ein separates Belohnungsmodell zu trainieren oder bestärkendes Lernen zu verwenden.
Die Anleitung für Laien zielt darauf ab, die Schwierigkeit von Diffusionsmodellen im Bereich der bedingten Generierung zu behandeln.
Ziel der primären Geruchskarte ist es, den Zusammenhang zwischen der chemischen Struktur eines Geruchs und seinen olfaktorischen Wahrnehmungseigenschaften zu modellieren.
Bei der Erkennung von Abweichungen außerhalb der Verteilung geht es darum, Datenproben zu identifizieren, die während der Trainingsphase des Modells nicht abgedeckt wurden.
PENCIL zielt darauf ab, großen Modellen das dynamische Löschen unnötiger Zwischenergebnisse während des Generierungsprozesses zu ermöglichen, bis die endgültige Antwort vorliegt.
RAP ist ein hochauflösendes Bildwahrnehmungs-Plugin basierend auf der RAG-Technologie, das kein Training erfordert.
Die Wortfehlerrate ist ein wichtiger Indikator zur Bewertung der Leistung von Spracherkennungs- oder Textabgleichsystemen.
Mit der Sprecherähnlichkeit soll gemessen werden, ob zwei Sprachproben vom selben Sprecher stammen oder wie ähnlich die beiden Proben sind.
Geführtes Sampling ist eine Technik zur Verbesserung der Stichprobenqualität in generativen Modellen mit dem Ziel, die Steuerbarkeit generativer Modelle zu verbessern.
Die oberflächliche Selbstreflexion zielt darauf ab, die Leistung der aktuellen Aufgabe oder des aktuellen Verhaltens schnell zu optimieren, indem durch sofortiges Feedback lokale Anpassungen am Modell vorgenommen werden.
Die Visualisierung multimodalen Denkens zielt darauf ab, durch die Zusammenarbeit mehrerer verschiedener Modalitäten eine intuitivere und umfassendere Darstellung von Denk-, Entscheidungs- und Informationsverarbeitungsprozessen zu ermöglichen.
Sparse Autoencoder ist ein unüberwachter Algorithmus für maschinelles Lernen.
Ziel der kontinuierlichen Konzeptmischung ist die Generierung neuer Datenproben durch die Mischung unterschiedlicher Konzepte oder Merkmale, um die Lern- und Denkfähigkeiten des Modells zu erweitern.
Ziel der deduktiven Datenbankarithmetik ist es, Daten in der Datenbank durch Inferenzregeln und mathematische Operationen abzuleiten und zu berechnen.
Methoden zur Präferenzausrichtung auf Token-Ebene zielen darauf ab, das Halluzinationsproblem in großen visuellen Sprachmodellen (LVLMs) zu reduzieren.
Die Skalierung zur Inferenzzeit ist eine Methode zur Verbesserung der Leistung großer Sprachmodelle (LLMs) durch Erhöhung der Rechenressourcen während der Inferenzphase.
Ziel der langsamen Wahrnehmung ist es, durch die Aufteilung des Wahrnehmungsprozesses eine detaillierte Wahrnehmung geometrischer Figuren zu erreichen, um so die Leistung großer multimodaler Modelle bei visuellen Denkaufgaben zu verbessern.
Thinking Evolution zielt darauf ab, die Nutzung von Rechenressourcen beim Schlussfolgerungsprozess auf innovative Weise zu erweitern, sodass Modelle komplexe Probleme effizienter bewältigen können.
Große Aktionsmodelle zielen darauf ab, den Übergang von der Sprachinteraktion zur Ausführung realer Aktionen zu erreichen und die KI in Richtung künstlicher allgemeiner Intelligenz (AGI) zu treiben.
Semantische Frequenzhinweise zielen darauf ab, die Einschränkungen traditioneller Methoden im räumlichen Bereich durch Analyse und selektives Lernen im Frequenzbereich zu beheben.
ASAL zielt darauf ab, den Simulationsraum im Bereich des künstlichen Lebens mithilfe grundlegender Modelle automatisch zu erkunden.
Beim Offline-Meta-Reinforcement-Learning geht es darum, Offline-Daten zum Trainieren von Modellen zu nutzen, damit diese sich ohne umfangreiche Online-Interaktionen schnell an neue Aufgaben oder neue Umgebungen anpassen können.
Bei der Out-of-Distribution-Generalisierung geht es darum, dem Modell die Aufrechterhaltung einer guten Leistung und Stabilität bei unbekannten oder ungesehenen Datenverteilungen zu ermöglichen.
Die universelle Approximationstheorie zeigt, dass ein neuronales Netzwerk mit ausreichend komplexer Struktur jede kontinuierliche Funktion mit beliebiger Genauigkeit approximieren kann.
Die Kernidee von DPO besteht darin, direkt auf der Grundlage menschlicher Präferenzdaten zu optimieren, ohne ein separates Belohnungsmodell zu trainieren oder bestärkendes Lernen zu verwenden.
Die Anleitung für Laien zielt darauf ab, die Schwierigkeit von Diffusionsmodellen im Bereich der bedingten Generierung zu behandeln.
Ziel der primären Geruchskarte ist es, den Zusammenhang zwischen der chemischen Struktur eines Geruchs und seinen olfaktorischen Wahrnehmungseigenschaften zu modellieren.
Bei der Erkennung von Abweichungen außerhalb der Verteilung geht es darum, Datenproben zu identifizieren, die während der Trainingsphase des Modells nicht abgedeckt wurden.