Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Definitionen und Erklärungen wichtiger KI- und ML-Konzepte erkunden
Regression ist ein überwachter Lernalgorithmus zum Vorhersagen und Modellieren numerischer kontinuierlicher Zufallsvariablen.
Beim Regellernen geht es darum, aus Trainingsdaten einen Satz von WENN-DANN-Regeln zu lernen, die aus atomaren Aussagen bestehen. Es handelt sich um eine Art des unüberwachten Lernens und wird oft als eine Art der Klassifizierung bezeichnet.
Der Stammknoten ist der erste Knoten in einer Baumdatenstruktur. Ein normaler Knoten kann einen übergeordneten Knoten und untergeordnete Knoten haben, aber da der Grundton der erste Knoten ist, hat er nur untergeordnete Knoten.
Particle Swarm Optimization (PSO), auch als Partikelschwarmoptimierung bekannt, ist ein Optimierungsalgorithmus, der auf der Schwarmintelligenztheorie basiert. Die Partikel im Schwarm schließen den Optimierungsprozess des Problems in jedem iterativen Suchvorgang ab.
Die Regel-Engine ist eine Weiterentwicklung der Inferenz-Engine und ist eine in die Anwendung eingebettete Komponente. Es trennt Geschäftsentscheidungen vom Anwendungscode und schreibt Geschäftsentscheidungen mithilfe vordefinierter semantischer Module.
Die Kernnorm ist die Summe der singulären Werte einer Matrix und wird verwendet, um den niedrigen Rang der Matrix einzuschränken.
Bei der Assoziationsanalyse handelt es sich um den Prozess, häufige Muster, Assoziationen, Korrelationen oder kausale Strukturen zwischen Mengen von Elementen oder Objekten in Transaktionsdaten, relationalen Daten oder anderen Informationsträgern zu finden. Methode der Assoziationsanalyse: Apriori-Algorithmus. Der Apriori-Algorithmus ist ein grundlegender Algorithmus zum Mining häufiger Elementsätze, die zum Generieren boolescher Assoziationsregeln erforderlich sind. Es macht […]
Individueller Lerner ist ein relatives Konzept, das den Lerner vor der Integration in das Ensemble-Lernen beschreibt. Entsprechend der Generierungsmethode einzelner Lernender können Ensemble-Lernmethoden in die folgenden zwei Kategorien unterteilt werden: Es gibt starke Abhängigkeiten und Serialisierungsmethoden müssen seriell generiert werden, wie z. B. Boosting; Es bestehen keine starken Abhängigkeiten und die Generierung kann gleichzeitig erfolgen.
Induktion ist ein Denkprozess, bei dem aus einer Reihe spezifischer Fakten allgemeine Prinzipien verallgemeinert werden. Mathematische Induktion bezeichnet eine Denkweise, bei der allgemeine Konzepte, Prinzipien oder Schlussfolgerungen aus mehreren Dingen verallgemeinert werden. Die Induktion kann in vollständige und unvollständige Induktion unterteilt werden: Vollständige Induktion: schließt alle Objekte dieses Typs ein und lässt so eine Schlussfolgerung über diesen Objekttyp zu.
Induktives Lernen ist eine Methode des maschinellen Lernens, die häufig für symbolisches Lernen verwendet wird. Es fasst im Wesentlichen eine Konzeptbeschreibung aus einer Reihe bekannter positiver und negativer Beispiele zu einem Konzept zusammen. Durch induktives Lernen können neue Konzepte erworben, neue Regeln erstellt und neue Theorien entdeckt werden. Seine allgemeinen Operationen sind Generalisierung und Spezialisierung, wobei sich Generalisierung auf die Erweiterung von […] bezieht.
Der Cumulative Error Backpropagation-Algorithmus (ABP-Algorithmus) ist eine Variante des Standard-Backpropagation-Algorithmus (BP). Wenn eine Aktualisierungsregel basierend auf der Minimierung des kumulativen Fehlers abgeleitet wird, erhält man den Algorithmus zur Rückausbreitung kumulativer Fehler.
Die Hinge-Loss-Funktion hat die Form eines Scharniers, was auch der Ursprung ihres Namens ist. Diese Verlustfunktion existiert hauptsächlich in Support Vector Machines. Es ist nicht nur eine korrekte Klassifizierung erforderlich, sondern auch, dass der Verlust nur dann 0 ist, wenn das Vertrauen hoch genug ist. Das heißt, die Scharnierverlustfunktion stellt höhere Anforderungen an das Lernen. Die Formel der Scharnierverlustfunktion lautet L ( y ( w * x […]
Hybrid Computing ist eine Art des integrierten Computing, das traditionelles Hard Computing und aufkommendes Soft Computing umfasst. Mit dieser Berechnungsmethode können die Stärken jedes einzelnen genutzt werden, um Einschränkungen zu überwinden. Die Hauptmerkmale des Hard Computing sind: Es ist einfach, ein standardmäßiges mathematisches Modell des Problems zu erstellen; Das etablierte mathematische Modell ist einfach zu lösen und kann einen hohen Grad an Genauigkeit erreichen; Es verfügt über eine gute Stabilität. weich[…]
Die Gaußsche Kernelfunktion ist eine häufig verwendete Kernelfunktion, die endlichdimensionale Daten in einen hochdimensionalen Raum abbilden kann. Die Gaußsche Kernelfunktion ist wie folgt definiert: $latex {k{ \left( {x,x\text{'}} \right) }\text{ }=\text{ }e\m […]
Das Gaußsche Mischungsmodell (GMM) basiert auf der Gaußschen Wahrscheinlichkeitsdichtefunktion, die die Dichteverteilung beliebiger Form problemlos approximieren kann. Da GMM über mehrere Modelle und seine Feinunterteilungseigenschaften verfügt, kann es für die Modellierung komplexer Objekte verwendet werden. Angenommen, es gibt einen Stapel von Beobachtungsdaten $latex {X\text{ }=\text […]
Das verallgemeinerte lineare Modell ist ein flexibles lineares Regressionsmodell, das es der abhängigen Variable ermöglicht, eine von der Normalverteilung abweichende Verteilung aufzuweisen. Definition: Das verallgemeinerte lineare Modell ist eine Erweiterung der einfachen Kleinstquadrate-Regression. Nehmen Sie an, dass jede Datenbeobachtung $latex {Y}$ aus einer Exponentialverteilungsfamilie stammt. Dann ist der Mittelwert der Verteilung […]
Induktive Verzerrung kann als eine Reihe von Annahmen im maschinellen Lernen betrachtet werden. Es wird als notwendige Annahme der Zielfunktion im maschinellen Lernen verwendet. Das typischste Beispiel ist Ockhams Rasiermesser. Die induktive Voreingenommenheit basiert auf mathematischer Logik, in der Praxis kann die induktive Voreingenommenheit eines Lernenden jedoch nur eine sehr grobe Beschreibung sein oder sogar noch einfacher. Im Vergleich dazu beträgt der theoretische Wert […]
Die Kernelmethode ist eine Art Mustererkennungsalgorithmus, dessen Ziel darin besteht, die gegenseitigen Beziehungen in einem Datensatz zu finden und zu erlernen. Die Kernelmethode basiert auf der folgenden Annahme: „Eine Punktmenge, die in einem niedrigdimensionalen Raum nicht linear getrennt werden kann, kann nach der Transformation in eine Punktmenge in einem hochdimensionalen Raum linear trennbar werden.“ Grundkenntnisse zu Kernelmethoden: Muster in Rohdaten lassen sich […]
Die verallgemeinerte Rayleigh-Entropie kann als Erweiterung der Rayleigh-Entropie angesehen werden, die sich auf die Funktion R(A,B,x) bezieht: $latex {R{ \left( {A,B,x} \right) }\text{ }=\text{ }\frac{{x\mathop{{}}\nolim […]
Induktive Logikprogrammierung (ILP) ist eine Methode zum symbolischen Regellernen, die die Verschachtelung von Funktionen und logischen Ausdrücken in das Regellernen erster Stufe einführt und die Prädikatenlogik erster Stufe als Ausdruckssprache verwendet. ILP verleiht maschinellen Lernsystemen leistungsfähigere Ausdrucksmöglichkeiten. Gleichzeitig kann es als eine Anwendung des maschinellen Lernens betrachtet werden, die hauptsächlich zur Lösung von Problemen auf der Grundlage von Hintergrundinformationen verwendet wird […]
Der Kernel-Trick ist eine Methode zur direkten Berechnung von $latex \langle\phi(x), \phi(z)\rangle $ unter Verwendung der Kernel-Funktion, um die separate Berechnung von $latex \phi(x) $ und $latex \phi(z) $ zu vermeiden und so die Berechnung der Kernel-Methode zu beschleunigen […]
Das rekursive neuronale Netzwerk ist eine Methode zum Lernen von Darstellungen, die Wörter, Sätze, Absätze und Artikel entsprechend ihrer Semantik in denselben Vektorraum abbilden kann, d. h., es kann kombinierbare (Baum-/Graphstruktur) Informationen als aussagekräftige Vektoren darstellen.
Negative Korrelation bedeutet, dass sich die beiden Variablenspalten in entgegengesetzte Richtungen ändern. Wenn sich eine Variablenspalte ändert, ändert sich die andere Variablenspalte in die entgegengesetzte Richtung der vorherigen Variable.
Ein univariater Entscheidungsbaum ist ein Entscheidungsbaum mit nur einer Variable. Das heißt, bei jeder Knotenaufteilung wird nur ein Merkmal im Merkmalssatz ausgewählt. Dies bedeutet auch, dass die Klassifizierungsgrenze des Entscheidungsbaums aus mehreren Segmenten parallel zur Koordinatenachse besteht.
Regression ist ein überwachter Lernalgorithmus zum Vorhersagen und Modellieren numerischer kontinuierlicher Zufallsvariablen.
Beim Regellernen geht es darum, aus Trainingsdaten einen Satz von WENN-DANN-Regeln zu lernen, die aus atomaren Aussagen bestehen. Es handelt sich um eine Art des unüberwachten Lernens und wird oft als eine Art der Klassifizierung bezeichnet.
Der Stammknoten ist der erste Knoten in einer Baumdatenstruktur. Ein normaler Knoten kann einen übergeordneten Knoten und untergeordnete Knoten haben, aber da der Grundton der erste Knoten ist, hat er nur untergeordnete Knoten.
Particle Swarm Optimization (PSO), auch als Partikelschwarmoptimierung bekannt, ist ein Optimierungsalgorithmus, der auf der Schwarmintelligenztheorie basiert. Die Partikel im Schwarm schließen den Optimierungsprozess des Problems in jedem iterativen Suchvorgang ab.
Die Regel-Engine ist eine Weiterentwicklung der Inferenz-Engine und ist eine in die Anwendung eingebettete Komponente. Es trennt Geschäftsentscheidungen vom Anwendungscode und schreibt Geschäftsentscheidungen mithilfe vordefinierter semantischer Module.
Die Kernnorm ist die Summe der singulären Werte einer Matrix und wird verwendet, um den niedrigen Rang der Matrix einzuschränken.
Bei der Assoziationsanalyse handelt es sich um den Prozess, häufige Muster, Assoziationen, Korrelationen oder kausale Strukturen zwischen Mengen von Elementen oder Objekten in Transaktionsdaten, relationalen Daten oder anderen Informationsträgern zu finden. Methode der Assoziationsanalyse: Apriori-Algorithmus. Der Apriori-Algorithmus ist ein grundlegender Algorithmus zum Mining häufiger Elementsätze, die zum Generieren boolescher Assoziationsregeln erforderlich sind. Es macht […]
Individueller Lerner ist ein relatives Konzept, das den Lerner vor der Integration in das Ensemble-Lernen beschreibt. Entsprechend der Generierungsmethode einzelner Lernender können Ensemble-Lernmethoden in die folgenden zwei Kategorien unterteilt werden: Es gibt starke Abhängigkeiten und Serialisierungsmethoden müssen seriell generiert werden, wie z. B. Boosting; Es bestehen keine starken Abhängigkeiten und die Generierung kann gleichzeitig erfolgen.
Induktion ist ein Denkprozess, bei dem aus einer Reihe spezifischer Fakten allgemeine Prinzipien verallgemeinert werden. Mathematische Induktion bezeichnet eine Denkweise, bei der allgemeine Konzepte, Prinzipien oder Schlussfolgerungen aus mehreren Dingen verallgemeinert werden. Die Induktion kann in vollständige und unvollständige Induktion unterteilt werden: Vollständige Induktion: schließt alle Objekte dieses Typs ein und lässt so eine Schlussfolgerung über diesen Objekttyp zu.
Induktives Lernen ist eine Methode des maschinellen Lernens, die häufig für symbolisches Lernen verwendet wird. Es fasst im Wesentlichen eine Konzeptbeschreibung aus einer Reihe bekannter positiver und negativer Beispiele zu einem Konzept zusammen. Durch induktives Lernen können neue Konzepte erworben, neue Regeln erstellt und neue Theorien entdeckt werden. Seine allgemeinen Operationen sind Generalisierung und Spezialisierung, wobei sich Generalisierung auf die Erweiterung von […] bezieht.
Der Cumulative Error Backpropagation-Algorithmus (ABP-Algorithmus) ist eine Variante des Standard-Backpropagation-Algorithmus (BP). Wenn eine Aktualisierungsregel basierend auf der Minimierung des kumulativen Fehlers abgeleitet wird, erhält man den Algorithmus zur Rückausbreitung kumulativer Fehler.
Die Hinge-Loss-Funktion hat die Form eines Scharniers, was auch der Ursprung ihres Namens ist. Diese Verlustfunktion existiert hauptsächlich in Support Vector Machines. Es ist nicht nur eine korrekte Klassifizierung erforderlich, sondern auch, dass der Verlust nur dann 0 ist, wenn das Vertrauen hoch genug ist. Das heißt, die Scharnierverlustfunktion stellt höhere Anforderungen an das Lernen. Die Formel der Scharnierverlustfunktion lautet L ( y ( w * x […]
Hybrid Computing ist eine Art des integrierten Computing, das traditionelles Hard Computing und aufkommendes Soft Computing umfasst. Mit dieser Berechnungsmethode können die Stärken jedes einzelnen genutzt werden, um Einschränkungen zu überwinden. Die Hauptmerkmale des Hard Computing sind: Es ist einfach, ein standardmäßiges mathematisches Modell des Problems zu erstellen; Das etablierte mathematische Modell ist einfach zu lösen und kann einen hohen Grad an Genauigkeit erreichen; Es verfügt über eine gute Stabilität. weich[…]
Die Gaußsche Kernelfunktion ist eine häufig verwendete Kernelfunktion, die endlichdimensionale Daten in einen hochdimensionalen Raum abbilden kann. Die Gaußsche Kernelfunktion ist wie folgt definiert: $latex {k{ \left( {x,x\text{'}} \right) }\text{ }=\text{ }e\m […]
Das Gaußsche Mischungsmodell (GMM) basiert auf der Gaußschen Wahrscheinlichkeitsdichtefunktion, die die Dichteverteilung beliebiger Form problemlos approximieren kann. Da GMM über mehrere Modelle und seine Feinunterteilungseigenschaften verfügt, kann es für die Modellierung komplexer Objekte verwendet werden. Angenommen, es gibt einen Stapel von Beobachtungsdaten $latex {X\text{ }=\text […]
Das verallgemeinerte lineare Modell ist ein flexibles lineares Regressionsmodell, das es der abhängigen Variable ermöglicht, eine von der Normalverteilung abweichende Verteilung aufzuweisen. Definition: Das verallgemeinerte lineare Modell ist eine Erweiterung der einfachen Kleinstquadrate-Regression. Nehmen Sie an, dass jede Datenbeobachtung $latex {Y}$ aus einer Exponentialverteilungsfamilie stammt. Dann ist der Mittelwert der Verteilung […]
Induktive Verzerrung kann als eine Reihe von Annahmen im maschinellen Lernen betrachtet werden. Es wird als notwendige Annahme der Zielfunktion im maschinellen Lernen verwendet. Das typischste Beispiel ist Ockhams Rasiermesser. Die induktive Voreingenommenheit basiert auf mathematischer Logik, in der Praxis kann die induktive Voreingenommenheit eines Lernenden jedoch nur eine sehr grobe Beschreibung sein oder sogar noch einfacher. Im Vergleich dazu beträgt der theoretische Wert […]
Die Kernelmethode ist eine Art Mustererkennungsalgorithmus, dessen Ziel darin besteht, die gegenseitigen Beziehungen in einem Datensatz zu finden und zu erlernen. Die Kernelmethode basiert auf der folgenden Annahme: „Eine Punktmenge, die in einem niedrigdimensionalen Raum nicht linear getrennt werden kann, kann nach der Transformation in eine Punktmenge in einem hochdimensionalen Raum linear trennbar werden.“ Grundkenntnisse zu Kernelmethoden: Muster in Rohdaten lassen sich […]
Die verallgemeinerte Rayleigh-Entropie kann als Erweiterung der Rayleigh-Entropie angesehen werden, die sich auf die Funktion R(A,B,x) bezieht: $latex {R{ \left( {A,B,x} \right) }\text{ }=\text{ }\frac{{x\mathop{{}}\nolim […]
Induktive Logikprogrammierung (ILP) ist eine Methode zum symbolischen Regellernen, die die Verschachtelung von Funktionen und logischen Ausdrücken in das Regellernen erster Stufe einführt und die Prädikatenlogik erster Stufe als Ausdruckssprache verwendet. ILP verleiht maschinellen Lernsystemen leistungsfähigere Ausdrucksmöglichkeiten. Gleichzeitig kann es als eine Anwendung des maschinellen Lernens betrachtet werden, die hauptsächlich zur Lösung von Problemen auf der Grundlage von Hintergrundinformationen verwendet wird […]
Der Kernel-Trick ist eine Methode zur direkten Berechnung von $latex \langle\phi(x), \phi(z)\rangle $ unter Verwendung der Kernel-Funktion, um die separate Berechnung von $latex \phi(x) $ und $latex \phi(z) $ zu vermeiden und so die Berechnung der Kernel-Methode zu beschleunigen […]
Das rekursive neuronale Netzwerk ist eine Methode zum Lernen von Darstellungen, die Wörter, Sätze, Absätze und Artikel entsprechend ihrer Semantik in denselben Vektorraum abbilden kann, d. h., es kann kombinierbare (Baum-/Graphstruktur) Informationen als aussagekräftige Vektoren darstellen.
Negative Korrelation bedeutet, dass sich die beiden Variablenspalten in entgegengesetzte Richtungen ändern. Wenn sich eine Variablenspalte ändert, ändert sich die andere Variablenspalte in die entgegengesetzte Richtung der vorherigen Variable.
Ein univariater Entscheidungsbaum ist ein Entscheidungsbaum mit nur einer Variable. Das heißt, bei jeder Knotenaufteilung wird nur ein Merkmal im Merkmalssatz ausgewählt. Dies bedeutet auch, dass die Klassifizierungsgrenze des Entscheidungsbaums aus mehreren Segmenten parallel zur Koordinatenachse besteht.