Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Definitionen und Erklärungen wichtiger KI- und ML-Konzepte erkunden
Simple Online and Realtime Tracking (SORT) ist eine praktische Multi-Target-Tracking-Methode, die sich auf einfache und effiziente Algorithmen konzentriert. Es wurde von Forschern der Queensland University of Technology und der University of Sydney auf der IEEE International Conference on Image Processing 2016 vorgestellt. […]
Prioritized Experience Replay ist eine Methode zum bestärkenden Lernen, bei der Erfahrungen je nach Wichtigkeit in unterschiedlicher Häufigkeit wiederholt werden, wodurch die Lerneffizienz verbessert wird.
Die CoT-Technologie zerlegt komplexe Probleme in eine Reihe schrittweiser Antworten auf Teilprobleme und leitet das Modell an, einen detaillierten Denkprozess zu generieren. Dadurch wird die Leistung des Modells bei komplexen Aufgaben wie arithmetischer Argumentation, gesundem Menschenverstand und symbolischer Argumentation verbessert.
Parameter Efficient Fine-tuning (PERT) ist eine Feinabstimmungsmethode für große vortrainierte Modelle, die die Rechen- und Speicherkosten reduziert, indem nur eine kleine Teilmenge der Modellparameter feinabgestimmt wird, während gleichzeitig eine Leistung beibehalten wird, die mit der Feinabstimmung aller Parameter vergleichbar ist.
Im Bereich der künstlichen Intelligenz ist ein „Weltmodell“ ein Modell, das den Zustand der Umgebung oder der Welt charakterisieren und Übergänge zwischen Zuständen vorhersagen kann. Dieses Modell ermöglicht es dem Agenten, in einer simulierten Umgebung zu lernen und die erlernten Strategien auf die reale Welt zu übertragen, wodurch die Lerneffizienz verbessert und Risiken reduziert werden. Jürgen S […]
Multimodales kontrastives Lernen mit gemeinsamer Beispielauswahl (JEST) zielt darauf ab, das Problem des hohen Energieverbrauchs beim Training großer Sprachmodelle wie ChatGPT zu lösen.
Full Parameter Tuning ist eine Modelloptimierungstechnik im Deep Learning, die insbesondere in Transferlern- oder Domänenanpassungsszenarien verwendet wird. Dabei werden alle Parameter eines vortrainierten Modells an eine bestimmte Aufgabe oder einen bestimmten Datensatz angepasst.
Das Belegungsnetz spielt bei Wahrnehmungsaufgaben des autonomen Fahrens eine wichtige Rolle. Es handelt sich um ein Netzwerkmodell, bei dem der Schwerpunkt eher auf der Geometrie als auf der Semantik liegt. Es kann autonomen Fahrsystemen dabei helfen, freien Raum besser wahrzunehmen und ist eine Schlüsseltechnologie zur Verbesserung der Wahrnehmungsfähigkeiten und zur Bildung eines geschlossenen Kreislaufs.
Die Kernidee der Neuausrichtung während der Decodierung besteht darin, die Ausrichtung des Modells während des Decodierungsprozesses dynamisch anzupassen, ohne das Modell neu zu trainieren, wodurch Rechenressourcen gespart und die Forschungseffizienz verbessert werden.
Die dreidimensionale Gaußsche Splatter-Technologie ist eine fortschrittliche Computergrafiktechnologie, die wichtige Anwendungen bei der Punktwolkendarstellung, der Volumendatenvisualisierung und der Volumenrekonstruktion hat. Diese Technologie erzielt eine höhere Qualität der Renderings, indem sie diskrete Datenpunkte oder Voxel in eine kontinuierliche Oberflächen- oder Volumendarstellung umwandelt.
Shadow Mode Testing ist eine Testmethode, die im Bereich des autonomen Fahrens eingesetzt wird. Es wird hauptsächlich verwendet, um autonome Fahralgorithmen in realen Verkehrsumgebungen zu überprüfen und zu bewerten und gleichzeitig sicherzustellen, dass weder der Fahrer noch der umgebende Verkehr beeinträchtigt werden.
Der Fluch der Spärlichkeit ist ein zentrales wissenschaftliches Thema im Bereich des autonomen Fahrens. Es bezieht sich auf die Tatsache, dass in realen Fahrumgebungen die Wahrscheinlichkeit sicherheitskritischer Ereignisse äußerst gering ist, was dazu führt, dass diese Ereignisse in den Fahrdaten äußerst spärlich vorkommen, was es für Deep-Learning-Modelle schwierig macht, die Merkmale dieser Ereignisse zu erlernen.
Diffusionsverlust ist eine Verlustfunktion im Zusammenhang mit dem Diffusionsmodell, die während des Trainingsprozesses verwendet wird, um das Modell dabei zu unterstützen, zu lernen, wie Rauschen schrittweise entfernt und die ursprüngliche Struktur der Daten wiederhergestellt werden kann.
Die Long-Tail-Challenge bezieht sich im Allgemeinen auf eine Klasse von Problemen, die beim maschinellen Lernen und Deep Learning auftreten, insbesondere bei der Behandlung visueller Erkennungsaufgaben.
Die Crapness Ratio ist eine Metrik, die verwendet wird, um den Anteil an Unsinn oder ungültigen Informationen in den Antworten großer Sprachmodelle (LLMs) zu bewerten.
Im Bereich der künstlichen Intelligenz bezeichnet lebenslanges Lernen die Fähigkeit einer Maschine, ihre Wissensbasis und Modelle durch den kontinuierlichen Empfang neuer Daten und Erfahrungen kontinuierlich zu aktualisieren und zu verbessern.
Hardwareunabhängigkeit bezieht sich auf Software, Anwendungen, Betriebssysteme oder andere Arten von Systemen, die so konzipiert sind, dass sie nicht von einer bestimmten Hardwareplattform oder Hardwarearchitektur abhängig oder spezifisch für diese sind.
LlamaIndex ist ein Tool zum Erstellen von Indizes und Abfragen lokaler Dokumente, das als Brücke zwischen benutzerdefinierten Daten und Large Language Models (LLMs) fungiert.
Der Modalitätsgenerator ist eine Schlüsselkomponente in einem multimodalen Lernsystem und seine Hauptaufgabe besteht darin, Ausgaben verschiedener Modalitäten wie Bilder, Videos oder Audios zu generieren.
Das Visual Language Geographic Foundation Model ist ein künstliches Intelligenzmodell, das speziell für die Verarbeitung und Analyse von Erdbeobachtungsdaten entwickelt wurde.
Future Multi-Predictor Mixture ist eine Modellkomponente für Zeitreihenprognosen, die Teil der TimeMixer-Architektur ist.
PDM ist ein theoretisches Konzept zur Zeitreihenprognose und eine der Kernkomponenten des TimeMixer-Modells.
MRL lernt Informationen mit unterschiedlicher Granularität durch die Optimierung verschachtelter niedrigdimensionaler Vektoren und ermöglicht es einer einzelnen Einbettung, sich an die Rechenbeschränkungen nachgelagerter Aufgaben anzupassen.
Hadoop ist ein von der Apache Software Foundation entwickeltes Open-Source-Framework zum Speichern und Verarbeiten großer Datenmengen auf Clustern handelsüblicher Hardware.
Simple Online and Realtime Tracking (SORT) ist eine praktische Multi-Target-Tracking-Methode, die sich auf einfache und effiziente Algorithmen konzentriert. Es wurde von Forschern der Queensland University of Technology und der University of Sydney auf der IEEE International Conference on Image Processing 2016 vorgestellt. […]
Prioritized Experience Replay ist eine Methode zum bestärkenden Lernen, bei der Erfahrungen je nach Wichtigkeit in unterschiedlicher Häufigkeit wiederholt werden, wodurch die Lerneffizienz verbessert wird.
Die CoT-Technologie zerlegt komplexe Probleme in eine Reihe schrittweiser Antworten auf Teilprobleme und leitet das Modell an, einen detaillierten Denkprozess zu generieren. Dadurch wird die Leistung des Modells bei komplexen Aufgaben wie arithmetischer Argumentation, gesundem Menschenverstand und symbolischer Argumentation verbessert.
Parameter Efficient Fine-tuning (PERT) ist eine Feinabstimmungsmethode für große vortrainierte Modelle, die die Rechen- und Speicherkosten reduziert, indem nur eine kleine Teilmenge der Modellparameter feinabgestimmt wird, während gleichzeitig eine Leistung beibehalten wird, die mit der Feinabstimmung aller Parameter vergleichbar ist.
Im Bereich der künstlichen Intelligenz ist ein „Weltmodell“ ein Modell, das den Zustand der Umgebung oder der Welt charakterisieren und Übergänge zwischen Zuständen vorhersagen kann. Dieses Modell ermöglicht es dem Agenten, in einer simulierten Umgebung zu lernen und die erlernten Strategien auf die reale Welt zu übertragen, wodurch die Lerneffizienz verbessert und Risiken reduziert werden. Jürgen S […]
Multimodales kontrastives Lernen mit gemeinsamer Beispielauswahl (JEST) zielt darauf ab, das Problem des hohen Energieverbrauchs beim Training großer Sprachmodelle wie ChatGPT zu lösen.
Full Parameter Tuning ist eine Modelloptimierungstechnik im Deep Learning, die insbesondere in Transferlern- oder Domänenanpassungsszenarien verwendet wird. Dabei werden alle Parameter eines vortrainierten Modells an eine bestimmte Aufgabe oder einen bestimmten Datensatz angepasst.
Das Belegungsnetz spielt bei Wahrnehmungsaufgaben des autonomen Fahrens eine wichtige Rolle. Es handelt sich um ein Netzwerkmodell, bei dem der Schwerpunkt eher auf der Geometrie als auf der Semantik liegt. Es kann autonomen Fahrsystemen dabei helfen, freien Raum besser wahrzunehmen und ist eine Schlüsseltechnologie zur Verbesserung der Wahrnehmungsfähigkeiten und zur Bildung eines geschlossenen Kreislaufs.
Die Kernidee der Neuausrichtung während der Decodierung besteht darin, die Ausrichtung des Modells während des Decodierungsprozesses dynamisch anzupassen, ohne das Modell neu zu trainieren, wodurch Rechenressourcen gespart und die Forschungseffizienz verbessert werden.
Die dreidimensionale Gaußsche Splatter-Technologie ist eine fortschrittliche Computergrafiktechnologie, die wichtige Anwendungen bei der Punktwolkendarstellung, der Volumendatenvisualisierung und der Volumenrekonstruktion hat. Diese Technologie erzielt eine höhere Qualität der Renderings, indem sie diskrete Datenpunkte oder Voxel in eine kontinuierliche Oberflächen- oder Volumendarstellung umwandelt.
Shadow Mode Testing ist eine Testmethode, die im Bereich des autonomen Fahrens eingesetzt wird. Es wird hauptsächlich verwendet, um autonome Fahralgorithmen in realen Verkehrsumgebungen zu überprüfen und zu bewerten und gleichzeitig sicherzustellen, dass weder der Fahrer noch der umgebende Verkehr beeinträchtigt werden.
Der Fluch der Spärlichkeit ist ein zentrales wissenschaftliches Thema im Bereich des autonomen Fahrens. Es bezieht sich auf die Tatsache, dass in realen Fahrumgebungen die Wahrscheinlichkeit sicherheitskritischer Ereignisse äußerst gering ist, was dazu führt, dass diese Ereignisse in den Fahrdaten äußerst spärlich vorkommen, was es für Deep-Learning-Modelle schwierig macht, die Merkmale dieser Ereignisse zu erlernen.
Diffusionsverlust ist eine Verlustfunktion im Zusammenhang mit dem Diffusionsmodell, die während des Trainingsprozesses verwendet wird, um das Modell dabei zu unterstützen, zu lernen, wie Rauschen schrittweise entfernt und die ursprüngliche Struktur der Daten wiederhergestellt werden kann.
Die Long-Tail-Challenge bezieht sich im Allgemeinen auf eine Klasse von Problemen, die beim maschinellen Lernen und Deep Learning auftreten, insbesondere bei der Behandlung visueller Erkennungsaufgaben.
Die Crapness Ratio ist eine Metrik, die verwendet wird, um den Anteil an Unsinn oder ungültigen Informationen in den Antworten großer Sprachmodelle (LLMs) zu bewerten.
Im Bereich der künstlichen Intelligenz bezeichnet lebenslanges Lernen die Fähigkeit einer Maschine, ihre Wissensbasis und Modelle durch den kontinuierlichen Empfang neuer Daten und Erfahrungen kontinuierlich zu aktualisieren und zu verbessern.
Hardwareunabhängigkeit bezieht sich auf Software, Anwendungen, Betriebssysteme oder andere Arten von Systemen, die so konzipiert sind, dass sie nicht von einer bestimmten Hardwareplattform oder Hardwarearchitektur abhängig oder spezifisch für diese sind.
LlamaIndex ist ein Tool zum Erstellen von Indizes und Abfragen lokaler Dokumente, das als Brücke zwischen benutzerdefinierten Daten und Large Language Models (LLMs) fungiert.
Der Modalitätsgenerator ist eine Schlüsselkomponente in einem multimodalen Lernsystem und seine Hauptaufgabe besteht darin, Ausgaben verschiedener Modalitäten wie Bilder, Videos oder Audios zu generieren.
Das Visual Language Geographic Foundation Model ist ein künstliches Intelligenzmodell, das speziell für die Verarbeitung und Analyse von Erdbeobachtungsdaten entwickelt wurde.
Future Multi-Predictor Mixture ist eine Modellkomponente für Zeitreihenprognosen, die Teil der TimeMixer-Architektur ist.
PDM ist ein theoretisches Konzept zur Zeitreihenprognose und eine der Kernkomponenten des TimeMixer-Modells.
MRL lernt Informationen mit unterschiedlicher Granularität durch die Optimierung verschachtelter niedrigdimensionaler Vektoren und ermöglicht es einer einzelnen Einbettung, sich an die Rechenbeschränkungen nachgelagerter Aufgaben anzupassen.
Hadoop ist ein von der Apache Software Foundation entwickeltes Open-Source-Framework zum Speichern und Verarbeiten großer Datenmengen auf Clustern handelsüblicher Hardware.