Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Definitionen und Erklärungen wichtiger KI- und ML-Konzepte erkunden
Edge AI bezieht sich auf die Bereitstellung von KI-Algorithmen und KI-Modellen direkt auf lokalen Edge-Geräten wie Sensoren oder Internet of Things (IoT)-Geräten, wodurch eine Datenverarbeitung und -analyse in Echtzeit ohne ständige Abhängigkeit von der Cloud-Infrastruktur ermöglicht wird. Einfach ausgedrückt bezieht sich Edge AI auf die Integration von Edge Computing und menschlichem […]
Ein Open-Source-Projekt, -Produkt oder eine Open-Source-Initiative umfasst und fördert die Prinzipien der offenen Kommunikation, der kollaborativen Teilnahme, des schnellen Prototyping, der Transparenz, der Meritokratie und der gemeinschaftsorientierten Entwicklung.
Neuromorphes Computing ist der Prozess, bei dem Computer so entworfen und gebaut werden, dass sie die Struktur und Funktion des menschlichen Gehirns nachahmen, mit dem Ziel, künstliche Neuronen und Synapsen zu verwenden, um auf diese Weise Informationen zu verarbeiten.
Funktionsaufrufe sind ein grundlegendes Konzept in der Programmierung. Sie bedeuten, dass während der Programmausführung durch den Aufruf einer definierten Funktion eine bestimmte Aufgabe ausgeführt wird.
Spiking Neural Network (SNN) ist ein neuronales Netzwerkmodell an der Schnittstelle zwischen Neurowissenschaft und künstlicher Intelligenz, das das Verhalten biologischer Neuronen im Gehirn simuliert.
Das Finite-Elemente-Modell (FEM) ist eine numerische Berechnungsmethode, die das physikalische Verhalten einer Entität approximiert, indem sie eine kontinuierliche physikalische Struktur in eine endliche Anzahl kleiner Teile, nämlich „Elemente“, diskretisiert. Diese Elemente können eindimensionale Linienelemente, zweidimensionale Oberflächenelemente oder dreidimensionale Volumen sein […]
Die kontextbezogene Positionskodierung ist eine neue Art der Positionskodierungsmethode, die es ermöglicht, die Positionsinformationen je nach Kontextbedingungen zu variieren.
Lernen mit Fehlern (LWE) ist ein sehr wichtiges Problem in der Kryptographie und der theoretischen Informatik, das 2005 von Oded Regev vorgeschlagen wurde. Das LWE-Problem kann wie folgt beschrieben werden: Gegeben ist ein System linearer Gleichungen, in dem jede […]
In der Mathematik ist die Approximation niedrigen Ranges ein Minimierungsproblem, bei dem die Kostenfunktion die Güte der Anpassung zwischen einer gegebenen Matrix (den Daten) und einer Approximationsmatrix (den Optimierungsvariablen) misst, der Rang der Approximationsmatrix jedoch reduziert werden muss.
Wissensdestillation ist eine Technik des maschinellen Lernens, die darauf abzielt, die Erkenntnisse eines großen vortrainierten Modells (des „Lehrermodells“) auf ein kleineres „Schülermodell“ zu übertragen.
YOLOv10 erreicht modernste Leistung und reduziert gleichzeitig den Rechenaufwand erheblich
Infrastructure as a Service (IaaS) ist ein Cloud-Computing-Dienst, der die erforderlichen Rechen-, Speicher- und Netzwerkressourcen auf Pay-as-you-go-Basis bereitstellt.
NAS bezieht sich auf Speichergeräte, die eine Verbindung zu einem Netzwerk herstellen und Computersystemen Dateizugriffsdienste bereitstellen.
Im Gegensatz zu Data Warehouses oder Silos verwenden Data Lakes eine flache Architektur mit Objektspeicher, um Metadaten für Dateien zu verwalten.
Die Datenschutz-Grundverordnung (DSGVO) ist das strengste Datenschutz- und Sicherheitsgesetz der Welt.
Hyper Converged Infrastructure (HCI) kombiniert Server und Speicher in einer verteilten Infrastrukturplattform, erstellt flexible Bausteine durch intelligente Software und ersetzt herkömmliche Infrastrukturen, die aus separaten Servern, Speichernetzwerken und Speicher-Arrays bestehen.
Unter Exascale-Computing versteht man ein Computersystem, das mindestens „10 18 IEEE 754-Operationen (Multiplikationen und/oder Additionen) mit doppelter Genauigkeit (64 Bit) pro Sekunde (Exa-FLOPS)“ ausführen kann, was ein Maß für die Leistung eines Supercomputers ist. Exascale-Computing ist Computing […]
HyperNetworks ist eine neuronale Netzwerkstruktur, die im Vergleich zu herkömmlichen neuronalen Netzwerken einige Unterschiede in der Modellparametrisierung aufweist. In dem 2016 von Google Brain veröffentlichten Papier „HyperNetworks“ heißt es, dass in Hyper […]
Predictive Coding (PC) ist ein theoretischer Rahmen in der Kognitionswissenschaft, der davon ausgeht, dass das menschliche Gehirn Erkenntnisse durch räumlich-zeitliche Vorhersagen der visuellen Welt verarbeitet.
Das Diffusionswahrscheinlichkeitsmodell demonstriert die Verbindung zwischen dem Diffusionswahrscheinlichkeitsmodell und der PC-Theorie.
Das DQ-LoRe-Framework verwendet Dual Query (DQ) und Low-Rank Approximate Reranking (LoRe), um automatisch kontextbezogene Lernbeispiele auszuwählen.
Kontrastives Lernen ist eine Technik, die die Leistung bei Sehaufgaben verbessert, indem sie das Prinzip der Gegenüberstellung von Stichproben nutzt, um Eigenschaften zu erlernen, die Datenklassen gemeinsam haben und Eigenschaften, die eine Datenklasse von einer anderen unterscheiden.
Durch die Behebung der Einschränkungen herkömmlicher LSTM und die Einbeziehung neuartiger Komponenten wie Exponential-Gating, Matrixspeicher und parallelisierbarer Architektur eröffnet xLSTM neue Möglichkeiten für LLM.
Eine Punktwolke ist ein Datensatz aus Punkten im Raum, der eine 3D-Form oder ein 3D-Objekt darstellen kann und normalerweise von einem 3D-Scanner erfasst wird.
Edge AI bezieht sich auf die Bereitstellung von KI-Algorithmen und KI-Modellen direkt auf lokalen Edge-Geräten wie Sensoren oder Internet of Things (IoT)-Geräten, wodurch eine Datenverarbeitung und -analyse in Echtzeit ohne ständige Abhängigkeit von der Cloud-Infrastruktur ermöglicht wird. Einfach ausgedrückt bezieht sich Edge AI auf die Integration von Edge Computing und menschlichem […]
Ein Open-Source-Projekt, -Produkt oder eine Open-Source-Initiative umfasst und fördert die Prinzipien der offenen Kommunikation, der kollaborativen Teilnahme, des schnellen Prototyping, der Transparenz, der Meritokratie und der gemeinschaftsorientierten Entwicklung.
Neuromorphes Computing ist der Prozess, bei dem Computer so entworfen und gebaut werden, dass sie die Struktur und Funktion des menschlichen Gehirns nachahmen, mit dem Ziel, künstliche Neuronen und Synapsen zu verwenden, um auf diese Weise Informationen zu verarbeiten.
Funktionsaufrufe sind ein grundlegendes Konzept in der Programmierung. Sie bedeuten, dass während der Programmausführung durch den Aufruf einer definierten Funktion eine bestimmte Aufgabe ausgeführt wird.
Spiking Neural Network (SNN) ist ein neuronales Netzwerkmodell an der Schnittstelle zwischen Neurowissenschaft und künstlicher Intelligenz, das das Verhalten biologischer Neuronen im Gehirn simuliert.
Das Finite-Elemente-Modell (FEM) ist eine numerische Berechnungsmethode, die das physikalische Verhalten einer Entität approximiert, indem sie eine kontinuierliche physikalische Struktur in eine endliche Anzahl kleiner Teile, nämlich „Elemente“, diskretisiert. Diese Elemente können eindimensionale Linienelemente, zweidimensionale Oberflächenelemente oder dreidimensionale Volumen sein […]
Die kontextbezogene Positionskodierung ist eine neue Art der Positionskodierungsmethode, die es ermöglicht, die Positionsinformationen je nach Kontextbedingungen zu variieren.
Lernen mit Fehlern (LWE) ist ein sehr wichtiges Problem in der Kryptographie und der theoretischen Informatik, das 2005 von Oded Regev vorgeschlagen wurde. Das LWE-Problem kann wie folgt beschrieben werden: Gegeben ist ein System linearer Gleichungen, in dem jede […]
In der Mathematik ist die Approximation niedrigen Ranges ein Minimierungsproblem, bei dem die Kostenfunktion die Güte der Anpassung zwischen einer gegebenen Matrix (den Daten) und einer Approximationsmatrix (den Optimierungsvariablen) misst, der Rang der Approximationsmatrix jedoch reduziert werden muss.
Wissensdestillation ist eine Technik des maschinellen Lernens, die darauf abzielt, die Erkenntnisse eines großen vortrainierten Modells (des „Lehrermodells“) auf ein kleineres „Schülermodell“ zu übertragen.
YOLOv10 erreicht modernste Leistung und reduziert gleichzeitig den Rechenaufwand erheblich
Infrastructure as a Service (IaaS) ist ein Cloud-Computing-Dienst, der die erforderlichen Rechen-, Speicher- und Netzwerkressourcen auf Pay-as-you-go-Basis bereitstellt.
NAS bezieht sich auf Speichergeräte, die eine Verbindung zu einem Netzwerk herstellen und Computersystemen Dateizugriffsdienste bereitstellen.
Im Gegensatz zu Data Warehouses oder Silos verwenden Data Lakes eine flache Architektur mit Objektspeicher, um Metadaten für Dateien zu verwalten.
Die Datenschutz-Grundverordnung (DSGVO) ist das strengste Datenschutz- und Sicherheitsgesetz der Welt.
Hyper Converged Infrastructure (HCI) kombiniert Server und Speicher in einer verteilten Infrastrukturplattform, erstellt flexible Bausteine durch intelligente Software und ersetzt herkömmliche Infrastrukturen, die aus separaten Servern, Speichernetzwerken und Speicher-Arrays bestehen.
Unter Exascale-Computing versteht man ein Computersystem, das mindestens „10 18 IEEE 754-Operationen (Multiplikationen und/oder Additionen) mit doppelter Genauigkeit (64 Bit) pro Sekunde (Exa-FLOPS)“ ausführen kann, was ein Maß für die Leistung eines Supercomputers ist. Exascale-Computing ist Computing […]
HyperNetworks ist eine neuronale Netzwerkstruktur, die im Vergleich zu herkömmlichen neuronalen Netzwerken einige Unterschiede in der Modellparametrisierung aufweist. In dem 2016 von Google Brain veröffentlichten Papier „HyperNetworks“ heißt es, dass in Hyper […]
Predictive Coding (PC) ist ein theoretischer Rahmen in der Kognitionswissenschaft, der davon ausgeht, dass das menschliche Gehirn Erkenntnisse durch räumlich-zeitliche Vorhersagen der visuellen Welt verarbeitet.
Das Diffusionswahrscheinlichkeitsmodell demonstriert die Verbindung zwischen dem Diffusionswahrscheinlichkeitsmodell und der PC-Theorie.
Das DQ-LoRe-Framework verwendet Dual Query (DQ) und Low-Rank Approximate Reranking (LoRe), um automatisch kontextbezogene Lernbeispiele auszuwählen.
Kontrastives Lernen ist eine Technik, die die Leistung bei Sehaufgaben verbessert, indem sie das Prinzip der Gegenüberstellung von Stichproben nutzt, um Eigenschaften zu erlernen, die Datenklassen gemeinsam haben und Eigenschaften, die eine Datenklasse von einer anderen unterscheiden.
Durch die Behebung der Einschränkungen herkömmlicher LSTM und die Einbeziehung neuartiger Komponenten wie Exponential-Gating, Matrixspeicher und parallelisierbarer Architektur eröffnet xLSTM neue Möglichkeiten für LLM.
Eine Punktwolke ist ein Datensatz aus Punkten im Raum, der eine 3D-Form oder ein 3D-Objekt darstellen kann und normalerweise von einem 3D-Scanner erfasst wird.