Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
Induktion ist ein Denkprozess, bei dem aus einer Reihe spezifischer Fakten allgemeine Prinzipien verallgemeinert werden. Mathematische Induktion bezeichnet eine Denkweise, bei der allgemeine Konzepte, Prinzipien oder Schlussfolgerungen aus mehreren Dingen verallgemeinert werden. Die Induktion kann in vollständige und unvollständige Induktion unterteilt werden: Vollständige Induktion: schließt alle Objekte dieses Typs ein und lässt so eine Schlussfolgerung über diesen Objekttyp zu.
Induktives Lernen ist eine Methode des maschinellen Lernens, die häufig für symbolisches Lernen verwendet wird. Es fasst im Wesentlichen eine Konzeptbeschreibung aus einer Reihe bekannter positiver und negativer Beispiele zu einem Konzept zusammen. Durch induktives Lernen können neue Konzepte erworben, neue Regeln erstellt und neue Theorien entdeckt werden. Seine allgemeinen Operationen sind Generalisierung und Spezialisierung, wobei sich Generalisierung auf die Erweiterung von […] bezieht.
Der Cumulative Error Backpropagation-Algorithmus (ABP-Algorithmus) ist eine Variante des Standard-Backpropagation-Algorithmus (BP). Wenn eine Aktualisierungsregel basierend auf der Minimierung des kumulativen Fehlers abgeleitet wird, erhält man den Algorithmus zur Rückausbreitung kumulativer Fehler.
Die Hinge-Loss-Funktion hat die Form eines Scharniers, was auch der Ursprung ihres Namens ist. Diese Verlustfunktion existiert hauptsächlich in Support Vector Machines. Es ist nicht nur eine korrekte Klassifizierung erforderlich, sondern auch, dass der Verlust nur dann 0 ist, wenn das Vertrauen hoch genug ist. Das heißt, die Scharnierverlustfunktion stellt höhere Anforderungen an das Lernen. Die Formel der Scharnierverlustfunktion lautet L ( y ( w * x […]
Hybrid Computing ist eine Art des integrierten Computing, das traditionelles Hard Computing und aufkommendes Soft Computing umfasst. Mit dieser Berechnungsmethode können die Stärken jedes einzelnen genutzt werden, um Einschränkungen zu überwinden. Die Hauptmerkmale des Hard Computing sind: Es ist einfach, ein standardmäßiges mathematisches Modell des Problems zu erstellen; Das etablierte mathematische Modell ist einfach zu lösen und kann einen hohen Grad an Genauigkeit erreichen; Es verfügt über eine gute Stabilität. weich[…]
Die Gaußsche Kernelfunktion ist eine häufig verwendete Kernelfunktion, die endlichdimensionale Daten in einen hochdimensionalen Raum abbilden kann. Die Gaußsche Kernelfunktion ist wie folgt definiert: $latex {k{ \left( {x,x\text{'}} \right) }\text{ }=\text{ }e\m […]
Das Gaußsche Mischungsmodell (GMM) basiert auf der Gaußschen Wahrscheinlichkeitsdichtefunktion, die die Dichteverteilung beliebiger Form problemlos approximieren kann. Da GMM über mehrere Modelle und seine Feinunterteilungseigenschaften verfügt, kann es für die Modellierung komplexer Objekte verwendet werden. Angenommen, es gibt einen Stapel von Beobachtungsdaten $latex {X\text{ }=\text […]
Das verallgemeinerte lineare Modell ist ein flexibles lineares Regressionsmodell, das es der abhängigen Variable ermöglicht, eine von der Normalverteilung abweichende Verteilung aufzuweisen. Definition: Das verallgemeinerte lineare Modell ist eine Erweiterung der einfachen Kleinstquadrate-Regression. Nehmen Sie an, dass jede Datenbeobachtung aus einer Exponentialverteilungsfamilie stammt. Dann ist der Mittelwert der Verteilung […]
Induktive Verzerrung kann als eine Reihe von Annahmen im maschinellen Lernen betrachtet werden. Es wird als notwendige Annahme der Zielfunktion im maschinellen Lernen verwendet. Das typischste Beispiel ist Ockhams Rasiermesser. Die induktive Voreingenommenheit basiert auf mathematischer Logik, in der Praxis kann die induktive Voreingenommenheit eines Lernenden jedoch nur eine sehr grobe Beschreibung sein oder sogar noch einfacher. Im Vergleich dazu beträgt der theoretische Wert […]
Die Kernelmethode ist eine Art Mustererkennungsalgorithmus, dessen Ziel darin besteht, die gegenseitigen Beziehungen in einem Datensatz zu finden und zu erlernen. Die Kernelmethode basiert auf der folgenden Annahme: „Eine Punktmenge, die in einem niedrigdimensionalen Raum nicht linear getrennt werden kann, kann nach der Transformation in eine Punktmenge in einem hochdimensionalen Raum linear trennbar werden.“ Grundkenntnisse zu Kernelmethoden: Muster in Rohdaten lassen sich […]
Die verallgemeinerte Rayleigh-Entropie kann als Erweiterung der Rayleigh-Entropie angesehen werden, die sich auf die Funktion R(A,B,x) bezieht: $latex {R{ \left( {A,B,x} \right) }\text{ }=\text{ }\frac{{x\mathop{{}}\nolim […]
Induktive Logikprogrammierung (ILP) ist eine Methode zum symbolischen Regellernen, die die Verschachtelung von Funktionen und logischen Ausdrücken in das Regellernen erster Stufe einführt und die Prädikatenlogik erster Stufe als Ausdruckssprache verwendet. ILP verleiht maschinellen Lernsystemen leistungsfähigere Ausdrucksmöglichkeiten. Gleichzeitig kann es als eine Anwendung des maschinellen Lernens betrachtet werden, die hauptsächlich zur Lösung von Problemen auf der Grundlage von Hintergrundinformationen verwendet wird […]
Der Kernel-Trick ist eine Methode zur direkten Berechnung von $latex \langle\phi(x), \phi(z)\rangle $ unter Verwendung der Kernel-Funktion, um die separate Berechnung von $latex \phi(x) $ und $latex \phi(z) $ zu vermeiden und so die Berechnung der Kernel-Methode zu beschleunigen […]
Das rekursive neuronale Netzwerk ist eine Methode zum Lernen von Darstellungen, die Wörter, Sätze, Absätze und Artikel entsprechend ihrer Semantik in denselben Vektorraum abbilden kann, d. h., es kann kombinierbare (Baum-/Graphstruktur) Informationen als aussagekräftige Vektoren darstellen.
Negative Korrelation bedeutet, dass sich die beiden Variablenspalten in entgegengesetzte Richtungen ändern. Wenn sich eine Variablenspalte ändert, ändert sich die andere Variablenspalte in die entgegengesetzte Richtung der vorherigen Variable.
Ein univariater Entscheidungsbaum ist ein Entscheidungsbaum mit nur einer Variable. Das heißt, bei jeder Knotenaufteilung wird nur ein Merkmal im Merkmalssatz ausgewählt. Dies bedeutet auch, dass die Klassifizierungsgrenze des Entscheidungsbaums aus mehreren Segmenten parallel zur Koordinatenachse besteht.
Die negative Log-Likelihood ist eine Verlustfunktion, die zur Lösung von Klassifizierungsproblemen verwendet wird. Es handelt sich um eine natürliche Logarithmusform der Wahrscheinlichkeitsfunktion und kann verwendet werden, um die Ähnlichkeit zwischen zwei Wahrscheinlichkeitsverteilungen zu messen. Das negative Vorzeichen wird verwendet, um den maximalen Wahrscheinlichkeitswert dem minimalen Verlust anzupassen. Es handelt sich um eine gängige Funktionsform bei der Maximum-Likelihood-Schätzung und verwandten Bereichen. Beim maschinellen Lernen ist es üblich, Optimierungen zu verwenden […]
Nichtkonvexe Optimierung ist eine Methode aus dem Bereich des maschinellen Lernens und der Signalverarbeitung. Bezieht sich auf eine Methode, die das Problem direkt löst oder die nichtkonvexe Formel direkt optimiert, ohne eine Relaxation für nichtkonvexe Probleme zu verwenden.
Ein nichtlineares Modell bezieht sich auf einen mathematischen Ausdruck, in dem eine nichtlineare Beziehung zwischen der unabhängigen Variable und der abhängigen Variable besteht. Im Vergleich zu linearen Modellen können die abhängige Variable und die unabhängige Variable nicht als lineare Entsprechung im Koordinatenraum ausgedrückt werden.
Nichtmetrische Distanz bezieht sich auf die Distanz zwischen Parametern, die nicht direkt ist.
Die nichtnegative Matrixfaktorisierung (NMF) ist eine Methode zur Matrixzerlegung, bei der alle Elemente die nichtnegative Einschränkung erfüllen.
Die Norm ist eine grundlegende Funktion der Mathematik. Es wird häufig verwendet, um die Länge oder Größe eines Vektors in einem Vektorraum (oder einer Matrix) zu messen. Die Norm der Modellparameter kann als Regularisierungsfunktion verwendet werden.
ODE ist die am häufigsten verwendete Strategie für seminaive Bayes-Klassifikatoren. Bei der sogenannten eindeutigen Abhängigkeit geht man davon aus, dass jedes Attribut von höchstens einem anderen Attribut außerhalb der Kategorie abhängt.
Die polynomische Kernelfunktion bezieht sich auf eine Kernelfunktion, die in Polynomform ausgedrückt wird. Es handelt sich um eine nicht standardmäßige Kernelfunktion, die für orthogonal normalisierte Daten geeignet ist. Seine konkrete Form ist in der Abbildung dargestellt.
Induktion ist ein Denkprozess, bei dem aus einer Reihe spezifischer Fakten allgemeine Prinzipien verallgemeinert werden. Mathematische Induktion bezeichnet eine Denkweise, bei der allgemeine Konzepte, Prinzipien oder Schlussfolgerungen aus mehreren Dingen verallgemeinert werden. Die Induktion kann in vollständige und unvollständige Induktion unterteilt werden: Vollständige Induktion: schließt alle Objekte dieses Typs ein und lässt so eine Schlussfolgerung über diesen Objekttyp zu.
Induktives Lernen ist eine Methode des maschinellen Lernens, die häufig für symbolisches Lernen verwendet wird. Es fasst im Wesentlichen eine Konzeptbeschreibung aus einer Reihe bekannter positiver und negativer Beispiele zu einem Konzept zusammen. Durch induktives Lernen können neue Konzepte erworben, neue Regeln erstellt und neue Theorien entdeckt werden. Seine allgemeinen Operationen sind Generalisierung und Spezialisierung, wobei sich Generalisierung auf die Erweiterung von […] bezieht.
Der Cumulative Error Backpropagation-Algorithmus (ABP-Algorithmus) ist eine Variante des Standard-Backpropagation-Algorithmus (BP). Wenn eine Aktualisierungsregel basierend auf der Minimierung des kumulativen Fehlers abgeleitet wird, erhält man den Algorithmus zur Rückausbreitung kumulativer Fehler.
Die Hinge-Loss-Funktion hat die Form eines Scharniers, was auch der Ursprung ihres Namens ist. Diese Verlustfunktion existiert hauptsächlich in Support Vector Machines. Es ist nicht nur eine korrekte Klassifizierung erforderlich, sondern auch, dass der Verlust nur dann 0 ist, wenn das Vertrauen hoch genug ist. Das heißt, die Scharnierverlustfunktion stellt höhere Anforderungen an das Lernen. Die Formel der Scharnierverlustfunktion lautet L ( y ( w * x […]
Hybrid Computing ist eine Art des integrierten Computing, das traditionelles Hard Computing und aufkommendes Soft Computing umfasst. Mit dieser Berechnungsmethode können die Stärken jedes einzelnen genutzt werden, um Einschränkungen zu überwinden. Die Hauptmerkmale des Hard Computing sind: Es ist einfach, ein standardmäßiges mathematisches Modell des Problems zu erstellen; Das etablierte mathematische Modell ist einfach zu lösen und kann einen hohen Grad an Genauigkeit erreichen; Es verfügt über eine gute Stabilität. weich[…]
Die Gaußsche Kernelfunktion ist eine häufig verwendete Kernelfunktion, die endlichdimensionale Daten in einen hochdimensionalen Raum abbilden kann. Die Gaußsche Kernelfunktion ist wie folgt definiert: $latex {k{ \left( {x,x\text{'}} \right) }\text{ }=\text{ }e\m […]
Das Gaußsche Mischungsmodell (GMM) basiert auf der Gaußschen Wahrscheinlichkeitsdichtefunktion, die die Dichteverteilung beliebiger Form problemlos approximieren kann. Da GMM über mehrere Modelle und seine Feinunterteilungseigenschaften verfügt, kann es für die Modellierung komplexer Objekte verwendet werden. Angenommen, es gibt einen Stapel von Beobachtungsdaten $latex {X\text{ }=\text […]
Das verallgemeinerte lineare Modell ist ein flexibles lineares Regressionsmodell, das es der abhängigen Variable ermöglicht, eine von der Normalverteilung abweichende Verteilung aufzuweisen. Definition: Das verallgemeinerte lineare Modell ist eine Erweiterung der einfachen Kleinstquadrate-Regression. Nehmen Sie an, dass jede Datenbeobachtung aus einer Exponentialverteilungsfamilie stammt. Dann ist der Mittelwert der Verteilung […]
Induktive Verzerrung kann als eine Reihe von Annahmen im maschinellen Lernen betrachtet werden. Es wird als notwendige Annahme der Zielfunktion im maschinellen Lernen verwendet. Das typischste Beispiel ist Ockhams Rasiermesser. Die induktive Voreingenommenheit basiert auf mathematischer Logik, in der Praxis kann die induktive Voreingenommenheit eines Lernenden jedoch nur eine sehr grobe Beschreibung sein oder sogar noch einfacher. Im Vergleich dazu beträgt der theoretische Wert […]
Die Kernelmethode ist eine Art Mustererkennungsalgorithmus, dessen Ziel darin besteht, die gegenseitigen Beziehungen in einem Datensatz zu finden und zu erlernen. Die Kernelmethode basiert auf der folgenden Annahme: „Eine Punktmenge, die in einem niedrigdimensionalen Raum nicht linear getrennt werden kann, kann nach der Transformation in eine Punktmenge in einem hochdimensionalen Raum linear trennbar werden.“ Grundkenntnisse zu Kernelmethoden: Muster in Rohdaten lassen sich […]
Die verallgemeinerte Rayleigh-Entropie kann als Erweiterung der Rayleigh-Entropie angesehen werden, die sich auf die Funktion R(A,B,x) bezieht: $latex {R{ \left( {A,B,x} \right) }\text{ }=\text{ }\frac{{x\mathop{{}}\nolim […]
Induktive Logikprogrammierung (ILP) ist eine Methode zum symbolischen Regellernen, die die Verschachtelung von Funktionen und logischen Ausdrücken in das Regellernen erster Stufe einführt und die Prädikatenlogik erster Stufe als Ausdruckssprache verwendet. ILP verleiht maschinellen Lernsystemen leistungsfähigere Ausdrucksmöglichkeiten. Gleichzeitig kann es als eine Anwendung des maschinellen Lernens betrachtet werden, die hauptsächlich zur Lösung von Problemen auf der Grundlage von Hintergrundinformationen verwendet wird […]
Der Kernel-Trick ist eine Methode zur direkten Berechnung von $latex \langle\phi(x), \phi(z)\rangle $ unter Verwendung der Kernel-Funktion, um die separate Berechnung von $latex \phi(x) $ und $latex \phi(z) $ zu vermeiden und so die Berechnung der Kernel-Methode zu beschleunigen […]
Das rekursive neuronale Netzwerk ist eine Methode zum Lernen von Darstellungen, die Wörter, Sätze, Absätze und Artikel entsprechend ihrer Semantik in denselben Vektorraum abbilden kann, d. h., es kann kombinierbare (Baum-/Graphstruktur) Informationen als aussagekräftige Vektoren darstellen.
Negative Korrelation bedeutet, dass sich die beiden Variablenspalten in entgegengesetzte Richtungen ändern. Wenn sich eine Variablenspalte ändert, ändert sich die andere Variablenspalte in die entgegengesetzte Richtung der vorherigen Variable.
Ein univariater Entscheidungsbaum ist ein Entscheidungsbaum mit nur einer Variable. Das heißt, bei jeder Knotenaufteilung wird nur ein Merkmal im Merkmalssatz ausgewählt. Dies bedeutet auch, dass die Klassifizierungsgrenze des Entscheidungsbaums aus mehreren Segmenten parallel zur Koordinatenachse besteht.
Die negative Log-Likelihood ist eine Verlustfunktion, die zur Lösung von Klassifizierungsproblemen verwendet wird. Es handelt sich um eine natürliche Logarithmusform der Wahrscheinlichkeitsfunktion und kann verwendet werden, um die Ähnlichkeit zwischen zwei Wahrscheinlichkeitsverteilungen zu messen. Das negative Vorzeichen wird verwendet, um den maximalen Wahrscheinlichkeitswert dem minimalen Verlust anzupassen. Es handelt sich um eine gängige Funktionsform bei der Maximum-Likelihood-Schätzung und verwandten Bereichen. Beim maschinellen Lernen ist es üblich, Optimierungen zu verwenden […]
Nichtkonvexe Optimierung ist eine Methode aus dem Bereich des maschinellen Lernens und der Signalverarbeitung. Bezieht sich auf eine Methode, die das Problem direkt löst oder die nichtkonvexe Formel direkt optimiert, ohne eine Relaxation für nichtkonvexe Probleme zu verwenden.
Ein nichtlineares Modell bezieht sich auf einen mathematischen Ausdruck, in dem eine nichtlineare Beziehung zwischen der unabhängigen Variable und der abhängigen Variable besteht. Im Vergleich zu linearen Modellen können die abhängige Variable und die unabhängige Variable nicht als lineare Entsprechung im Koordinatenraum ausgedrückt werden.
Nichtmetrische Distanz bezieht sich auf die Distanz zwischen Parametern, die nicht direkt ist.
Die nichtnegative Matrixfaktorisierung (NMF) ist eine Methode zur Matrixzerlegung, bei der alle Elemente die nichtnegative Einschränkung erfüllen.
Die Norm ist eine grundlegende Funktion der Mathematik. Es wird häufig verwendet, um die Länge oder Größe eines Vektors in einem Vektorraum (oder einer Matrix) zu messen. Die Norm der Modellparameter kann als Regularisierungsfunktion verwendet werden.
ODE ist die am häufigsten verwendete Strategie für seminaive Bayes-Klassifikatoren. Bei der sogenannten eindeutigen Abhängigkeit geht man davon aus, dass jedes Attribut von höchstens einem anderen Attribut außerhalb der Kategorie abhängt.
Die polynomische Kernelfunktion bezieht sich auf eine Kernelfunktion, die in Polynomform ausgedrückt wird. Es handelt sich um eine nicht standardmäßige Kernelfunktion, die für orthogonal normalisierte Daten geeignet ist. Seine konkrete Form ist in der Abbildung dargestellt.