Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Definitionen und Erklärungen wichtiger KI- und ML-Konzepte erkunden
Die negative Log-Likelihood ist eine Verlustfunktion, die zur Lösung von Klassifizierungsproblemen verwendet wird. Es handelt sich um eine natürliche Logarithmusform der Wahrscheinlichkeitsfunktion und kann verwendet werden, um die Ähnlichkeit zwischen zwei Wahrscheinlichkeitsverteilungen zu messen. Das negative Vorzeichen wird verwendet, um den maximalen Wahrscheinlichkeitswert dem minimalen Verlust anzupassen. Es handelt sich um eine gängige Funktionsform bei der Maximum-Likelihood-Schätzung und verwandten Bereichen. Beim maschinellen Lernen ist es üblich, Optimierungen zu verwenden […]
Nichtkonvexe Optimierung ist eine Methode aus dem Bereich des maschinellen Lernens und der Signalverarbeitung. Bezieht sich auf eine Methode, die das Problem direkt löst oder die nichtkonvexe Formel direkt optimiert, ohne eine Relaxation für nichtkonvexe Probleme zu verwenden.
Ein nichtlineares Modell bezieht sich auf einen mathematischen Ausdruck, in dem eine nichtlineare Beziehung zwischen der unabhängigen Variable und der abhängigen Variable besteht. Im Vergleich zu linearen Modellen können die abhängige Variable und die unabhängige Variable nicht als lineare Entsprechung im Koordinatenraum ausgedrückt werden.
Nichtmetrische Distanz bezieht sich auf die Distanz zwischen Parametern, die nicht direkt ist.
Die nichtnegative Matrixfaktorisierung (NMF) ist eine Methode zur Matrixzerlegung, bei der alle Elemente die nichtnegative Einschränkung erfüllen.
Die Norm ist eine grundlegende Funktion der Mathematik. Es wird häufig verwendet, um die Länge oder Größe eines Vektors in einem Vektorraum (oder einer Matrix) zu messen. Die Norm der Modellparameter kann als Regularisierungsfunktion verwendet werden.
ODE ist die am häufigsten verwendete Strategie für seminaive Bayes-Klassifikatoren. Bei der sogenannten eindeutigen Abhängigkeit geht man davon aus, dass jedes Attribut von höchstens einem anderen Attribut außerhalb der Kategorie abhängt.
Die polynomische Kernelfunktion bezieht sich auf eine Kernelfunktion, die in Polynomform ausgedrückt wird. Es handelt sich um eine nicht standardmäßige Kernelfunktion, die für orthogonal normalisierte Daten geeignet ist. Seine konkrete Form ist in der Abbildung dargestellt.
Das Prinzip der Mehrfachinterpretation beruht auf der Idee, dass alle Hypothesen, die mit empirischen Beobachtungen übereinstimmen, beibehalten werden sollten.
Hyperebenenpartitionierung bedeutet, dass, wenn zwei disjunkte konvexe Mengen beide offen sind, eine Hyperebene existiert, die sie trennen kann.
Bei der geschichteten Stichprobennahme handelt es sich um eine Stichprobenmethode, bei der vor der Entnahme eine Schichtung vorgenommen wird. Es handelt sich um ein in der Statistik häufig verwendetes Stichprobenverfahren.
Unter symbolischem Lernen versteht man Methoden des maschinellen Lernens, die die menschlichen Lernfähigkeiten funktional simulieren.
Der Symbolismus ist eine Denkschule im Bereich der künstlichen Intelligenz, die an mathematische Logik glaubt.
Die Einheitssprungfunktion wird auch Heaviside-Sprungfunktion genannt und ist wie folgt definiert: Ihr Graph sieht wie folgt aus: Verwandte Begriffe: Impulsfunktion,
Die Von-Neumann-Architektur ist ein Computerdesignkonzept, das Programmbefehlsspeicher und Datenspeicher kombiniert.
Unter sekundärem Lernen versteht man wiederholtes Lernen, wenn das erste Lernergebnis nicht optimal ist.
Ungleiche Kosten beziehen sich auf Situationen, in denen den Verlusten jeder Kategorie unterschiedliche Kosten zugewiesen werden.
Ungesättigte Spiele sind eher von heuristischen Methoden als von theoretischen Analysen inspiriert.
Ein Adversarial Network ist eine Implementierung eines generativen Adversarial Network, das zum stapelweisen Generieren von Adversarial Samples für ein bestimmtes neuronales Netzwerkmodell verwendet wird.
Adversarial-Beispiele beziehen sich auf Eingaben in ein neuronales Netzwerk, die dazu führen, dass das Netzwerk falsche Ergebnisse ausgibt. Im Datensatz werden Eingangsproben durch das absichtliche Hinzufügen leichter Störungen gebildet. Der gestörte Input führt dazu, dass das Modell mit hoher Sicherheit falsche Ergebnisse liefert. Die Eingabestichproben werden als gegnerische Stichproben bezeichnet. Dieses Verhalten wird normalerweise als feindlicher Angriff auf das neuronale Netzwerkmodell angesehen. […]
Affine Schichten sind vollständig verbundene Schichten in neuronalen Netzwerken, wobei „affin“ als die Verbindungen zwischen Neuronen in unterschiedlichen Schichten betrachtet werden kann und in vielerlei Hinsicht als die „Standardschicht“ eines neuronalen Netzwerks angesehen werden kann. Die allgemeine Form einer affinen Schicht ist wie folgt: y = f(wx + b). Hinweis: x ist der Schichteingang, w ist der Parameter und b ist eine Vorspannung […]
Metrisches Lernen kann auch als Ähnlichkeit betrachtet werden. Beim metrischen Lernen geht es darum, die Ähnlichkeit zwischen Stichproben zu messen, was eines der Kernprobleme bei der Mustererkennung ist. Das Ziel des metrischen Lernens besteht darin, den Abstand zwischen Proben desselben Typs zu minimieren und den Abstand zwischen Proben unterschiedlichen Typs zu maximieren.
Unter Mehrfachklassifizierung, manchmal auch Mehrfachklassifizierung genannt, versteht man die Einordnung von mehr als zwei Kategorien in einer Klassifizierungsaufgabe. Vorhandene Mehrklassen-Klassifizierungstechniken können in (i) Konvertierung ins Binärsystem, (ii) Erweiterung aus dem Binärsystem und (iii) hierarchische Klassifizierung unterteilt werden. Gängige Strategien 1) Die Einer-gegen-alle-Strategie erfordert die Erstellung eines einzigartigen […]
Multilayer Perceptron (MLP) ist ein künstliches neuronales Feedforward-Netzwerk, das eine Reihe von Eingabevektoren auf eine Reihe von Ausgabevektoren abbildet. Es kann als gerichteter Graph betrachtet werden, der aus mehreren Knotenschichten besteht, von denen jede vollständig mit der nächsten Schicht verbunden ist. Zusätzlich zu den Eingabeknoten muss jeder […]
Die negative Log-Likelihood ist eine Verlustfunktion, die zur Lösung von Klassifizierungsproblemen verwendet wird. Es handelt sich um eine natürliche Logarithmusform der Wahrscheinlichkeitsfunktion und kann verwendet werden, um die Ähnlichkeit zwischen zwei Wahrscheinlichkeitsverteilungen zu messen. Das negative Vorzeichen wird verwendet, um den maximalen Wahrscheinlichkeitswert dem minimalen Verlust anzupassen. Es handelt sich um eine gängige Funktionsform bei der Maximum-Likelihood-Schätzung und verwandten Bereichen. Beim maschinellen Lernen ist es üblich, Optimierungen zu verwenden […]
Nichtkonvexe Optimierung ist eine Methode aus dem Bereich des maschinellen Lernens und der Signalverarbeitung. Bezieht sich auf eine Methode, die das Problem direkt löst oder die nichtkonvexe Formel direkt optimiert, ohne eine Relaxation für nichtkonvexe Probleme zu verwenden.
Ein nichtlineares Modell bezieht sich auf einen mathematischen Ausdruck, in dem eine nichtlineare Beziehung zwischen der unabhängigen Variable und der abhängigen Variable besteht. Im Vergleich zu linearen Modellen können die abhängige Variable und die unabhängige Variable nicht als lineare Entsprechung im Koordinatenraum ausgedrückt werden.
Nichtmetrische Distanz bezieht sich auf die Distanz zwischen Parametern, die nicht direkt ist.
Die nichtnegative Matrixfaktorisierung (NMF) ist eine Methode zur Matrixzerlegung, bei der alle Elemente die nichtnegative Einschränkung erfüllen.
Die Norm ist eine grundlegende Funktion der Mathematik. Es wird häufig verwendet, um die Länge oder Größe eines Vektors in einem Vektorraum (oder einer Matrix) zu messen. Die Norm der Modellparameter kann als Regularisierungsfunktion verwendet werden.
ODE ist die am häufigsten verwendete Strategie für seminaive Bayes-Klassifikatoren. Bei der sogenannten eindeutigen Abhängigkeit geht man davon aus, dass jedes Attribut von höchstens einem anderen Attribut außerhalb der Kategorie abhängt.
Die polynomische Kernelfunktion bezieht sich auf eine Kernelfunktion, die in Polynomform ausgedrückt wird. Es handelt sich um eine nicht standardmäßige Kernelfunktion, die für orthogonal normalisierte Daten geeignet ist. Seine konkrete Form ist in der Abbildung dargestellt.
Das Prinzip der Mehrfachinterpretation beruht auf der Idee, dass alle Hypothesen, die mit empirischen Beobachtungen übereinstimmen, beibehalten werden sollten.
Hyperebenenpartitionierung bedeutet, dass, wenn zwei disjunkte konvexe Mengen beide offen sind, eine Hyperebene existiert, die sie trennen kann.
Bei der geschichteten Stichprobennahme handelt es sich um eine Stichprobenmethode, bei der vor der Entnahme eine Schichtung vorgenommen wird. Es handelt sich um ein in der Statistik häufig verwendetes Stichprobenverfahren.
Unter symbolischem Lernen versteht man Methoden des maschinellen Lernens, die die menschlichen Lernfähigkeiten funktional simulieren.
Der Symbolismus ist eine Denkschule im Bereich der künstlichen Intelligenz, die an mathematische Logik glaubt.
Die Einheitssprungfunktion wird auch Heaviside-Sprungfunktion genannt und ist wie folgt definiert: Ihr Graph sieht wie folgt aus: Verwandte Begriffe: Impulsfunktion,
Die Von-Neumann-Architektur ist ein Computerdesignkonzept, das Programmbefehlsspeicher und Datenspeicher kombiniert.
Unter sekundärem Lernen versteht man wiederholtes Lernen, wenn das erste Lernergebnis nicht optimal ist.
Ungleiche Kosten beziehen sich auf Situationen, in denen den Verlusten jeder Kategorie unterschiedliche Kosten zugewiesen werden.
Ungesättigte Spiele sind eher von heuristischen Methoden als von theoretischen Analysen inspiriert.
Ein Adversarial Network ist eine Implementierung eines generativen Adversarial Network, das zum stapelweisen Generieren von Adversarial Samples für ein bestimmtes neuronales Netzwerkmodell verwendet wird.
Adversarial-Beispiele beziehen sich auf Eingaben in ein neuronales Netzwerk, die dazu führen, dass das Netzwerk falsche Ergebnisse ausgibt. Im Datensatz werden Eingangsproben durch das absichtliche Hinzufügen leichter Störungen gebildet. Der gestörte Input führt dazu, dass das Modell mit hoher Sicherheit falsche Ergebnisse liefert. Die Eingabestichproben werden als gegnerische Stichproben bezeichnet. Dieses Verhalten wird normalerweise als feindlicher Angriff auf das neuronale Netzwerkmodell angesehen. […]
Affine Schichten sind vollständig verbundene Schichten in neuronalen Netzwerken, wobei „affin“ als die Verbindungen zwischen Neuronen in unterschiedlichen Schichten betrachtet werden kann und in vielerlei Hinsicht als die „Standardschicht“ eines neuronalen Netzwerks angesehen werden kann. Die allgemeine Form einer affinen Schicht ist wie folgt: y = f(wx + b). Hinweis: x ist der Schichteingang, w ist der Parameter und b ist eine Vorspannung […]
Metrisches Lernen kann auch als Ähnlichkeit betrachtet werden. Beim metrischen Lernen geht es darum, die Ähnlichkeit zwischen Stichproben zu messen, was eines der Kernprobleme bei der Mustererkennung ist. Das Ziel des metrischen Lernens besteht darin, den Abstand zwischen Proben desselben Typs zu minimieren und den Abstand zwischen Proben unterschiedlichen Typs zu maximieren.
Unter Mehrfachklassifizierung, manchmal auch Mehrfachklassifizierung genannt, versteht man die Einordnung von mehr als zwei Kategorien in einer Klassifizierungsaufgabe. Vorhandene Mehrklassen-Klassifizierungstechniken können in (i) Konvertierung ins Binärsystem, (ii) Erweiterung aus dem Binärsystem und (iii) hierarchische Klassifizierung unterteilt werden. Gängige Strategien 1) Die Einer-gegen-alle-Strategie erfordert die Erstellung eines einzigartigen […]
Multilayer Perceptron (MLP) ist ein künstliches neuronales Feedforward-Netzwerk, das eine Reihe von Eingabevektoren auf eine Reihe von Ausgabevektoren abbildet. Es kann als gerichteter Graph betrachtet werden, der aus mehreren Knotenschichten besteht, von denen jede vollständig mit der nächsten Schicht verbunden ist. Zusätzlich zu den Eingabeknoten muss jeder […]