Wiki
Wir haben Hunderte von verwandten Einträgen zusammengestellt, um Ihnen zu helfen, "künstliche Intelligenz" zu verstehen
Hybrid Computing ist eine Art des integrierten Computing, das traditionelles Hard Computing und aufkommendes Soft Computing umfasst. Mit dieser Berechnungsmethode können die Stärken jedes einzelnen genutzt werden, um Einschränkungen zu überwinden. Die Hauptmerkmale des Hard Computing sind: Es ist einfach, ein standardmäßiges mathematisches Modell des Problems zu erstellen; Das etablierte mathematische Modell ist einfach zu lösen und kann einen hohen Grad an Genauigkeit erreichen; Es verfügt über eine gute Stabilität. weich[…]
Die Gaußsche Kernelfunktion ist eine häufig verwendete Kernelfunktion, die endlichdimensionale Daten in einen hochdimensionalen Raum abbilden kann. Die Gaußsche Kernelfunktion ist wie folgt definiert: $latex {k{ \left( {x,x\text{'}} \right) }\text{ }=\text{ }e\m […]
Das Gaußsche Mischungsmodell (GMM) basiert auf der Gaußschen Wahrscheinlichkeitsdichtefunktion, die die Dichteverteilung beliebiger Form problemlos approximieren kann. Da GMM über mehrere Modelle und seine Feinunterteilungseigenschaften verfügt, kann es für die Modellierung komplexer Objekte verwendet werden. Angenommen, es gibt einen Stapel von Beobachtungsdaten $latex {X\text{ }=\text […]
Das verallgemeinerte lineare Modell ist ein flexibles lineares Regressionsmodell, das es der abhängigen Variable ermöglicht, eine von der Normalverteilung abweichende Verteilung aufzuweisen. Definition: Das verallgemeinerte lineare Modell ist eine Erweiterung der einfachen Kleinstquadrate-Regression. Nehmen Sie an, dass jede Datenbeobachtung aus einer Exponentialverteilungsfamilie stammt. Dann ist der Mittelwert der Verteilung […]
Induktive Verzerrung kann als eine Reihe von Annahmen im maschinellen Lernen betrachtet werden. Es wird als notwendige Annahme der Zielfunktion im maschinellen Lernen verwendet. Das typischste Beispiel ist Ockhams Rasiermesser. Die induktive Voreingenommenheit basiert auf mathematischer Logik, in der Praxis kann die induktive Voreingenommenheit eines Lernenden jedoch nur eine sehr grobe Beschreibung sein oder sogar noch einfacher. Im Vergleich dazu beträgt der theoretische Wert […]
Die Kernelmethode ist eine Art Mustererkennungsalgorithmus, dessen Ziel darin besteht, die gegenseitigen Beziehungen in einem Datensatz zu finden und zu erlernen. Die Kernelmethode basiert auf der folgenden Annahme: „Eine Punktmenge, die in einem niedrigdimensionalen Raum nicht linear getrennt werden kann, kann nach der Transformation in eine Punktmenge in einem hochdimensionalen Raum linear trennbar werden.“ Grundkenntnisse zu Kernelmethoden: Muster in Rohdaten lassen sich […]
Die verallgemeinerte Rayleigh-Entropie kann als Erweiterung der Rayleigh-Entropie angesehen werden, die sich auf die Funktion R(A,B,x) bezieht: $latex {R{ \left( {A,B,x} \right) }\text{ }=\text{ }\frac{{x\mathop{{}}\nolim […]
Induktive Logikprogrammierung (ILP) ist eine Methode zum symbolischen Regellernen, die die Verschachtelung von Funktionen und logischen Ausdrücken in das Regellernen erster Stufe einführt und die Prädikatenlogik erster Stufe als Ausdruckssprache verwendet. ILP verleiht maschinellen Lernsystemen leistungsfähigere Ausdrucksmöglichkeiten. Gleichzeitig kann es als eine Anwendung des maschinellen Lernens betrachtet werden, die hauptsächlich zur Lösung von Problemen auf der Grundlage von Hintergrundinformationen verwendet wird […]
Der Kernel-Trick ist eine Methode zur direkten Berechnung von $latex \langle\phi(x), \phi(z)\rangle $ unter Verwendung der Kernel-Funktion, um die separate Berechnung von $latex \phi(x) $ und $latex \phi(z) $ zu vermeiden und so die Berechnung der Kernel-Methode zu beschleunigen […]
Das rekursive neuronale Netzwerk ist eine Methode zum Lernen von Darstellungen, die Wörter, Sätze, Absätze und Artikel entsprechend ihrer Semantik in denselben Vektorraum abbilden kann, d. h., es kann kombinierbare (Baum-/Graphstruktur) Informationen als aussagekräftige Vektoren darstellen.
Negative Korrelation bedeutet, dass sich die beiden Variablenspalten in entgegengesetzte Richtungen ändern. Wenn sich eine Variablenspalte ändert, ändert sich die andere Variablenspalte in die entgegengesetzte Richtung der vorherigen Variable.
Ein univariater Entscheidungsbaum ist ein Entscheidungsbaum mit nur einer Variable. Das heißt, bei jeder Knotenaufteilung wird nur ein Merkmal im Merkmalssatz ausgewählt. Dies bedeutet auch, dass die Klassifizierungsgrenze des Entscheidungsbaums aus mehreren Segmenten parallel zur Koordinatenachse besteht.
Die negative Log-Likelihood ist eine Verlustfunktion, die zur Lösung von Klassifizierungsproblemen verwendet wird. Es handelt sich um eine natürliche Logarithmusform der Wahrscheinlichkeitsfunktion und kann verwendet werden, um die Ähnlichkeit zwischen zwei Wahrscheinlichkeitsverteilungen zu messen. Das negative Vorzeichen wird verwendet, um den maximalen Wahrscheinlichkeitswert dem minimalen Verlust anzupassen. Es handelt sich um eine gängige Funktionsform bei der Maximum-Likelihood-Schätzung und verwandten Bereichen. Beim maschinellen Lernen ist es üblich, Optimierungen zu verwenden […]
Nichtkonvexe Optimierung ist eine Methode aus dem Bereich des maschinellen Lernens und der Signalverarbeitung. Bezieht sich auf eine Methode, die das Problem direkt löst oder die nichtkonvexe Formel direkt optimiert, ohne eine Relaxation für nichtkonvexe Probleme zu verwenden.
Ein nichtlineares Modell bezieht sich auf einen mathematischen Ausdruck, in dem eine nichtlineare Beziehung zwischen der unabhängigen Variable und der abhängigen Variable besteht. Im Vergleich zu linearen Modellen können die abhängige Variable und die unabhängige Variable nicht als lineare Entsprechung im Koordinatenraum ausgedrückt werden.
Nichtmetrische Distanz bezieht sich auf die Distanz zwischen Parametern, die nicht direkt ist.
Die nichtnegative Matrixfaktorisierung (NMF) ist eine Methode zur Matrixzerlegung, bei der alle Elemente die nichtnegative Einschränkung erfüllen.
Die Norm ist eine grundlegende Funktion der Mathematik. Es wird häufig verwendet, um die Länge oder Größe eines Vektors in einem Vektorraum (oder einer Matrix) zu messen. Die Norm der Modellparameter kann als Regularisierungsfunktion verwendet werden.
ODE ist die am häufigsten verwendete Strategie für seminaive Bayes-Klassifikatoren. Bei der sogenannten eindeutigen Abhängigkeit geht man davon aus, dass jedes Attribut von höchstens einem anderen Attribut außerhalb der Kategorie abhängt.
Die polynomische Kernelfunktion bezieht sich auf eine Kernelfunktion, die in Polynomform ausgedrückt wird. Es handelt sich um eine nicht standardmäßige Kernelfunktion, die für orthogonal normalisierte Daten geeignet ist. Seine konkrete Form ist in der Abbildung dargestellt.
Das Prinzip der Mehrfachinterpretation beruht auf der Idee, dass alle Hypothesen, die mit empirischen Beobachtungen übereinstimmen, beibehalten werden sollten.
Hyperebenenpartitionierung bedeutet, dass, wenn zwei disjunkte konvexe Mengen beide offen sind, eine Hyperebene existiert, die sie trennen kann.
Bei der geschichteten Stichprobennahme handelt es sich um eine Stichprobenmethode, bei der vor der Entnahme eine Schichtung vorgenommen wird. Es handelt sich um ein in der Statistik häufig verwendetes Stichprobenverfahren.
Unter symbolischem Lernen versteht man Methoden des maschinellen Lernens, die die menschlichen Lernfähigkeiten funktional simulieren.