Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
Die dreidimensionale Gaußsche Splatter-Technologie ist eine fortschrittliche Computergrafiktechnologie, die wichtige Anwendungen bei der Punktwolkendarstellung, der Volumendatenvisualisierung und der Volumenrekonstruktion hat. Diese Technologie erzielt eine höhere Qualität der Renderings, indem sie diskrete Datenpunkte oder Voxel in eine kontinuierliche Oberflächen- oder Volumendarstellung umwandelt.
Shadow Mode Testing ist eine Testmethode, die im Bereich des autonomen Fahrens eingesetzt wird. Es wird hauptsächlich verwendet, um autonome Fahralgorithmen in realen Verkehrsumgebungen zu überprüfen und zu bewerten und gleichzeitig sicherzustellen, dass weder der Fahrer noch der umgebende Verkehr beeinträchtigt werden.
Der Fluch der Spärlichkeit ist ein zentrales wissenschaftliches Thema im Bereich des autonomen Fahrens. Es bezieht sich auf die Tatsache, dass in realen Fahrumgebungen die Wahrscheinlichkeit sicherheitskritischer Ereignisse äußerst gering ist, was dazu führt, dass diese Ereignisse in den Fahrdaten äußerst spärlich vorkommen, was es für Deep-Learning-Modelle schwierig macht, die Merkmale dieser Ereignisse zu erlernen.
Diffusionsverlust ist eine Verlustfunktion im Zusammenhang mit dem Diffusionsmodell, die während des Trainingsprozesses verwendet wird, um das Modell dabei zu unterstützen, zu lernen, wie Rauschen schrittweise entfernt und die ursprüngliche Struktur der Daten wiederhergestellt werden kann.
Die Long-Tail-Challenge bezieht sich im Allgemeinen auf eine Klasse von Problemen, die beim maschinellen Lernen und Deep Learning auftreten, insbesondere bei der Behandlung visueller Erkennungsaufgaben.
Die Crapness Ratio ist eine Metrik, die verwendet wird, um den Anteil an Unsinn oder ungültigen Informationen in den Antworten großer Sprachmodelle (LLMs) zu bewerten.
Im Bereich der künstlichen Intelligenz bezeichnet lebenslanges Lernen die Fähigkeit einer Maschine, ihre Wissensbasis und Modelle durch den kontinuierlichen Empfang neuer Daten und Erfahrungen kontinuierlich zu aktualisieren und zu verbessern.
Hardwareunabhängigkeit bezieht sich auf Software, Anwendungen, Betriebssysteme oder andere Arten von Systemen, die so konzipiert sind, dass sie nicht von einer bestimmten Hardwareplattform oder Hardwarearchitektur abhängig oder spezifisch für diese sind.
LlamaIndex ist ein Tool zum Erstellen von Indizes und Abfragen lokaler Dokumente, das als Brücke zwischen benutzerdefinierten Daten und Large Language Models (LLMs) fungiert.
Der Modalitätsgenerator ist eine Schlüsselkomponente in einem multimodalen Lernsystem und seine Hauptaufgabe besteht darin, Ausgaben verschiedener Modalitäten wie Bilder, Videos oder Audios zu generieren.
Das Visual Language Geographic Foundation Model ist ein künstliches Intelligenzmodell, das speziell für die Verarbeitung und Analyse von Erdbeobachtungsdaten entwickelt wurde.
Future Multi-Predictor Mixture ist eine Modellkomponente für Zeitreihenprognosen, die Teil der TimeMixer-Architektur ist.
PDM ist ein theoretisches Konzept zur Zeitreihenprognose und eine der Kernkomponenten des TimeMixer-Modells.
MRL lernt Informationen mit unterschiedlicher Granularität durch die Optimierung verschachtelter niedrigdimensionaler Vektoren und ermöglicht es einer einzelnen Einbettung, sich an die Rechenbeschränkungen nachgelagerter Aufgaben anzupassen.
Hadoop ist ein von der Apache Software Foundation entwickeltes Open-Source-Framework zum Speichern und Verarbeiten großer Datenmengen auf Clustern handelsüblicher Hardware.
Edge AI bezieht sich auf die Bereitstellung von KI-Algorithmen und KI-Modellen direkt auf lokalen Edge-Geräten wie Sensoren oder Internet of Things (IoT)-Geräten, wodurch eine Datenverarbeitung und -analyse in Echtzeit ohne ständige Abhängigkeit von der Cloud-Infrastruktur ermöglicht wird. Einfach ausgedrückt bezieht sich Edge AI auf die Integration von Edge Computing und menschlichem […]
Ein Open-Source-Projekt, -Produkt oder eine Open-Source-Initiative umfasst und fördert die Prinzipien der offenen Kommunikation, der kollaborativen Teilnahme, des schnellen Prototyping, der Transparenz, der Meritokratie und der gemeinschaftsorientierten Entwicklung.
Neuromorphes Computing ist der Prozess, bei dem Computer so entworfen und gebaut werden, dass sie die Struktur und Funktion des menschlichen Gehirns nachahmen, mit dem Ziel, künstliche Neuronen und Synapsen zu verwenden, um auf diese Weise Informationen zu verarbeiten.
Funktionsaufrufe sind ein grundlegendes Konzept in der Programmierung. Sie bedeuten, dass während der Programmausführung durch den Aufruf einer definierten Funktion eine bestimmte Aufgabe ausgeführt wird.
Spiking Neural Network (SNN) ist ein neuronales Netzwerkmodell an der Schnittstelle zwischen Neurowissenschaft und künstlicher Intelligenz, das das Verhalten biologischer Neuronen im Gehirn simuliert.
Das Finite-Elemente-Modell (FEM) ist eine numerische Berechnungsmethode, die das physikalische Verhalten einer Entität approximiert, indem sie eine kontinuierliche physikalische Struktur in eine endliche Anzahl kleiner Teile, nämlich „Elemente“, diskretisiert. Diese Elemente können eindimensionale Linienelemente, zweidimensionale Oberflächenelemente oder dreidimensionale Volumen sein […]
Die kontextbezogene Positionskodierung ist eine neue Art der Positionskodierungsmethode, die es ermöglicht, die Positionsinformationen je nach Kontextbedingungen zu variieren.
Lernen mit Fehlern (LWE) ist ein sehr wichtiges Problem in der Kryptographie und der theoretischen Informatik, das 2005 von Oded Regev vorgeschlagen wurde. Das LWE-Problem kann wie folgt beschrieben werden: Gegeben ist ein System linearer Gleichungen, in dem jede […]
In der Mathematik ist die Approximation niedrigen Ranges ein Minimierungsproblem, bei dem die Kostenfunktion die Güte der Anpassung zwischen einer gegebenen Matrix (den Daten) und einer Approximationsmatrix (den Optimierungsvariablen) misst, der Rang der Approximationsmatrix jedoch reduziert werden muss.
Die dreidimensionale Gaußsche Splatter-Technologie ist eine fortschrittliche Computergrafiktechnologie, die wichtige Anwendungen bei der Punktwolkendarstellung, der Volumendatenvisualisierung und der Volumenrekonstruktion hat. Diese Technologie erzielt eine höhere Qualität der Renderings, indem sie diskrete Datenpunkte oder Voxel in eine kontinuierliche Oberflächen- oder Volumendarstellung umwandelt.
Shadow Mode Testing ist eine Testmethode, die im Bereich des autonomen Fahrens eingesetzt wird. Es wird hauptsächlich verwendet, um autonome Fahralgorithmen in realen Verkehrsumgebungen zu überprüfen und zu bewerten und gleichzeitig sicherzustellen, dass weder der Fahrer noch der umgebende Verkehr beeinträchtigt werden.
Der Fluch der Spärlichkeit ist ein zentrales wissenschaftliches Thema im Bereich des autonomen Fahrens. Es bezieht sich auf die Tatsache, dass in realen Fahrumgebungen die Wahrscheinlichkeit sicherheitskritischer Ereignisse äußerst gering ist, was dazu führt, dass diese Ereignisse in den Fahrdaten äußerst spärlich vorkommen, was es für Deep-Learning-Modelle schwierig macht, die Merkmale dieser Ereignisse zu erlernen.
Diffusionsverlust ist eine Verlustfunktion im Zusammenhang mit dem Diffusionsmodell, die während des Trainingsprozesses verwendet wird, um das Modell dabei zu unterstützen, zu lernen, wie Rauschen schrittweise entfernt und die ursprüngliche Struktur der Daten wiederhergestellt werden kann.
Die Long-Tail-Challenge bezieht sich im Allgemeinen auf eine Klasse von Problemen, die beim maschinellen Lernen und Deep Learning auftreten, insbesondere bei der Behandlung visueller Erkennungsaufgaben.
Die Crapness Ratio ist eine Metrik, die verwendet wird, um den Anteil an Unsinn oder ungültigen Informationen in den Antworten großer Sprachmodelle (LLMs) zu bewerten.
Im Bereich der künstlichen Intelligenz bezeichnet lebenslanges Lernen die Fähigkeit einer Maschine, ihre Wissensbasis und Modelle durch den kontinuierlichen Empfang neuer Daten und Erfahrungen kontinuierlich zu aktualisieren und zu verbessern.
Hardwareunabhängigkeit bezieht sich auf Software, Anwendungen, Betriebssysteme oder andere Arten von Systemen, die so konzipiert sind, dass sie nicht von einer bestimmten Hardwareplattform oder Hardwarearchitektur abhängig oder spezifisch für diese sind.
LlamaIndex ist ein Tool zum Erstellen von Indizes und Abfragen lokaler Dokumente, das als Brücke zwischen benutzerdefinierten Daten und Large Language Models (LLMs) fungiert.
Der Modalitätsgenerator ist eine Schlüsselkomponente in einem multimodalen Lernsystem und seine Hauptaufgabe besteht darin, Ausgaben verschiedener Modalitäten wie Bilder, Videos oder Audios zu generieren.
Das Visual Language Geographic Foundation Model ist ein künstliches Intelligenzmodell, das speziell für die Verarbeitung und Analyse von Erdbeobachtungsdaten entwickelt wurde.
Future Multi-Predictor Mixture ist eine Modellkomponente für Zeitreihenprognosen, die Teil der TimeMixer-Architektur ist.
PDM ist ein theoretisches Konzept zur Zeitreihenprognose und eine der Kernkomponenten des TimeMixer-Modells.
MRL lernt Informationen mit unterschiedlicher Granularität durch die Optimierung verschachtelter niedrigdimensionaler Vektoren und ermöglicht es einer einzelnen Einbettung, sich an die Rechenbeschränkungen nachgelagerter Aufgaben anzupassen.
Hadoop ist ein von der Apache Software Foundation entwickeltes Open-Source-Framework zum Speichern und Verarbeiten großer Datenmengen auf Clustern handelsüblicher Hardware.
Edge AI bezieht sich auf die Bereitstellung von KI-Algorithmen und KI-Modellen direkt auf lokalen Edge-Geräten wie Sensoren oder Internet of Things (IoT)-Geräten, wodurch eine Datenverarbeitung und -analyse in Echtzeit ohne ständige Abhängigkeit von der Cloud-Infrastruktur ermöglicht wird. Einfach ausgedrückt bezieht sich Edge AI auf die Integration von Edge Computing und menschlichem […]
Ein Open-Source-Projekt, -Produkt oder eine Open-Source-Initiative umfasst und fördert die Prinzipien der offenen Kommunikation, der kollaborativen Teilnahme, des schnellen Prototyping, der Transparenz, der Meritokratie und der gemeinschaftsorientierten Entwicklung.
Neuromorphes Computing ist der Prozess, bei dem Computer so entworfen und gebaut werden, dass sie die Struktur und Funktion des menschlichen Gehirns nachahmen, mit dem Ziel, künstliche Neuronen und Synapsen zu verwenden, um auf diese Weise Informationen zu verarbeiten.
Funktionsaufrufe sind ein grundlegendes Konzept in der Programmierung. Sie bedeuten, dass während der Programmausführung durch den Aufruf einer definierten Funktion eine bestimmte Aufgabe ausgeführt wird.
Spiking Neural Network (SNN) ist ein neuronales Netzwerkmodell an der Schnittstelle zwischen Neurowissenschaft und künstlicher Intelligenz, das das Verhalten biologischer Neuronen im Gehirn simuliert.
Das Finite-Elemente-Modell (FEM) ist eine numerische Berechnungsmethode, die das physikalische Verhalten einer Entität approximiert, indem sie eine kontinuierliche physikalische Struktur in eine endliche Anzahl kleiner Teile, nämlich „Elemente“, diskretisiert. Diese Elemente können eindimensionale Linienelemente, zweidimensionale Oberflächenelemente oder dreidimensionale Volumen sein […]
Die kontextbezogene Positionskodierung ist eine neue Art der Positionskodierungsmethode, die es ermöglicht, die Positionsinformationen je nach Kontextbedingungen zu variieren.
Lernen mit Fehlern (LWE) ist ein sehr wichtiges Problem in der Kryptographie und der theoretischen Informatik, das 2005 von Oded Regev vorgeschlagen wurde. Das LWE-Problem kann wie folgt beschrieben werden: Gegeben ist ein System linearer Gleichungen, in dem jede […]
In der Mathematik ist die Approximation niedrigen Ranges ein Minimierungsproblem, bei dem die Kostenfunktion die Güte der Anpassung zwischen einer gegebenen Matrix (den Daten) und einer Approximationsmatrix (den Optimierungsvariablen) misst, der Rang der Approximationsmatrix jedoch reduziert werden muss.