Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Definitionen und Erklärungen wichtiger KI- und ML-Konzepte erkunden
Das Spaltennamenattribut bezieht sich auf die „namensbezogene“ Eigenschaft der Daten und der entsprechende Wert ist der Name eines Symbols oder Gegenstands.
Die kumulative Fehlerrückausbreitung ist ein neuronaler Netzwerkalgorithmus, der eine auf Gradientenabstieg basierende Strategie anwendet, um Parameter in der negativen Gradientenrichtung des Ziels anzupassen, mit dem Ziel, den Trainingsfehler zu minimieren. Auch bekannt als „Backpropagation-Algorithmus“ oder kurz „BP-Algorithmus“
Das Gruppieren verwandter Beispiele wird im Allgemeinen für unüberwachtes Lernen verwendet. Sobald alle Proben gruppiert wurden, können die Forscher jedem Cluster optional eine Bedeutung zuweisen. Es gibt viele Clustering-Algorithmen, beispielsweise clustert der K-Means-Algorithmus Stichproben basierend auf ihrer Nähe zum Schwerpunkt, wie unten gezeigt: Danach können Forscher […]
Bei der absoluten Mehrheitswahl handelt es sich um eine Wahlmethode, bei der mehr als die Hälfte der gültigen Stimmen abgegeben werden müssen, um anerkannt zu werden. Wenn mehrere Klassifikatoren eine bestimmte Kategorie vorhersagen, wird nur der Teil vorhergesagt, der höher ist als die Hälfte der Gesamtergebnisse. Hier ist die Formel zur Darstellung: $latex {H{ \left( {x} \right) }\text{ […]
Manifold Learning ist eine grundlegende Methode der Mustererkennung, die das Wesentliche der Dinge anhand beobachteter Phänomene erschließt und die inneren Gesetze findet, die die Daten erzeugen. Manifold-Lernen kann in zwei Typen unterteilt werden: linearer Manifold-Lernalgorithmus und nichtlinearer Manifold-Lernalgorithmus. Der nichtlineare Manifold-Lernalgorithmus umfasst die isometrische Abbildung Isomap, die Laplace-Eigenabbildung L […]
Der mittlere quadratische Fehler ist der erwartete Wert, der den Grad der Abweichung zwischen dem geschätzten Wert und dem wahren Wert widerspiegelt. Es wird häufig verwendet, um den Grad der Datenänderung zu bewerten und die Genauigkeit der Daten vorherzusagen. Angenommen, es gibt einen Parameter $latex { \theta }$ , dessen Schätzfunktion $latex {T}$ ist, dann ist $latex {MSE [...]
Bei der maschinellen Übersetzung werden Computer zur Konvertierung zwischen verschiedenen Sprachen eingesetzt. Dabei wird normalerweise die Ausgangssprache in die Zielsprache übersetzt. Übersetzungsprozess Aus der Perspektive der menschlichen Übersetzung zur maschinellen Übersetzung kann der Übersetzungsprozess wie folgt unterteilt werden: Entschlüsseln Sie die Bedeutung des Quelltextes und übersetzen Sie die analysierte Bedeutung in die Zielsprache. Übersetzungsmethoden Allgemeine Schritte der maschinellen Übersetzung […]
Die Mannigfaltigkeitsannahme ist eine gängige Annahme beim halbüberwachten Lernen, eine andere ist die Clusterannahme. Die Mannigfaltigkeitsannahme besagt, dass Beispiele mit ähnlichen Eigenschaften normalerweise in kleinen lokalen Nachbarschaften liegen und daher ähnliche Bezeichnungen haben, was die lokale Glätte der Entscheidungsfunktion widerspiegelt. Im Gegensatz zur Clusterhypothese, die sich auf die Gesamtmerkmale konzentriert, konzentriert sich die Mannigfaltigkeitshypothese mehr auf die [...]
Die Maximum-Likelihood-Schätzung ist eine Schätzmethode, die hauptsächlich zur Bestimmung von Modellparametern verwendet wird, indem die möglichen Daten ermittelt werden, die den Beobachtungswert des Modells maximieren, und diese als endgültige Auswahl verwendet werden. Bei der Maximum-Likelihood-Schätzung erfüllt die Stichprobenziehung die Annahme einer unabhängigen und identischen Verteilung. Sein Zweck besteht darin, aus bekannten Stichprobenergebnissen den Parameterwert abzuleiten, der mit der höchsten Wahrscheinlichkeit zu verwandten Ergebnissen führt.
Lazy Learning ist eine Methode zur Verarbeitung von Trainingssätzen, bei der das Training erfolgt, sobald die Testbeispiele vorliegen. Im Gegensatz dazu beginnt Eager Learning bereits während der Trainingsphase mit dem Lernen der Beispiele. Wenn sich die Aufgabendaten häufig ändern, kann Lazy Learning verwendet werden. Zunächst wird kein Training durchgeführt. Die Vorhersageanforderung wird empfangen und dann werden die aktuellen Daten für Wahrscheinlichkeiten verwendet.
Analogielernen ist eine Methode des kognitiven Denkens und Schlussfolgerns. Dabei werden zwei Arten von Dingen oder Situationen verglichen, um ihre Ähnlichkeiten auf Objektebene herauszufinden, und auf dieser Grundlage wird die Beziehung zwischen Dingen und Situationen verglichen. Durch entsprechendes Anordnen/Austauschen entsprechend einer anderen Sache erhält man die entsprechende Lösung. Es gibt mehrere Klassifizierungsmethoden für das Analogielernen […]
Die Holdout-Methode ist eine Methode zur Modellbewertung, die den Datensatz D in zwei sich gegenseitig ausschließende Sätze aufteilt. Angenommen, ein Satz ist der Trainingssatz S und der andere der Testsatz T, dann gilt: D = S ∪ T , S ∩ T = ∅. Durch die Aufteilung des Trainings-/Testsatzes sollte die Datenverteilung möglichst konsistent bleiben. Um zu vermeiden […]
Beschneiden ist eine Methode, um die Verzweigung eines Entscheidungsbaums zu verhindern. Es ist ein Mittel, um das Problem der Überanpassung in Entscheidungsbäumen zu lösen.
Das Testen von Hypothesen ist eine Methode zum Testen statistischer Hypothesen, die hauptsächlich in der Inferenzstatistik verwendet wird. Dabei ist eine „statistische Hypothese“ eine wissenschaftliche Hypothese, die hauptsächlich durch Beobachtung des Modells von Zufallsvariablen getestet wird. Unter der Voraussetzung, dass die unbekannten Parameter geschätzt werden können, können anhand der Ergebnisse entsprechende Rückschlüsse auf die unbekannten Parameterwerte gezogen werden. In der Statistik ist eine Annahme über einen Parameter eine Annahme über einen oder mehrere […]
Ensemble-Lernen ist die Idee, mehrere Modelle zu einem hochpräzisen Modell zu kombinieren. Es wird hauptsächlich im Bereich des maschinellen Lernens verwendet. Es handelt sich nicht um einen einzelnen Algorithmus für maschinelles Lernen, sondern die Lernaufgabe wird durch die Erstellung und Kombination mehrerer Lerner erledigt. Ensemble-Lernen kann für Klassifizierungsprobleme, Regressionsprobleme, Merkmalsauswahl, Ausreißererkennung usw. verwendet werden. Man kann sagen, dass alle maschinellen Lernverfahren […]
Die fehlerkorrigierende Ausgabecodierungsmethode ECOC kann Mehrklassenprobleme in mehrere Zweiklassenprobleme umwandeln, und der fehlerkorrigierende Ausgabecode selbst verfügt über Fehlerkorrekturfunktionen, die die Vorhersagegenauigkeit von überwachten Lernalgorithmen verbessern können. Die Ausgabekategoriecodierung kann in zwei Kategorien unterteilt werden, d. h. jede Kategorie entspricht einer binären Bitfolge der Länge n, die insgesamt m Codewörter bildet, die […]
Das empirische Risiko zeigt die Fähigkeit des Modells, Trainingsbeispiele vorherzusagen. Es wird ermittelt, indem die Verlustfunktion einmal für alle Trainingsbeispiele berechnet und dann der Durchschnitt akkumuliert wird. Die Verlustfunktion ist die Grundlage des erwarteten Risikos, des empirischen Risikos und des strukturellen Risikos. Die Verlustfunktion gilt für eine einzelne spezifische Stichprobe und stellt die Lücke zwischen dem vom Modell vorhergesagten Wert und dem wahren Wert dar. […]
K-Means-Clustering ist eine Methode zur Vektorquantisierung, die früher in der Signalverarbeitung verwendet wurde. Derzeit wird es hauptsächlich als Clusteranalysemethode im Bereich Data Mining verwendet. Der Zweck der K-Means-Clusterbildung besteht darin, n Punkte in k Cluster aufzuteilen, sodass jeder Punkt zu dem Cluster gehört, der dem nächsten Mittelwert entspricht, und diesen als Clusterkriterium zu verwenden. Diese Art von Problem [...]
Die Margin-Theorie ist ein Konzept in Support Vector Machines, wobei sich der Margin auf den Mindestabstand zwischen zwei durch eine Hyperebene geteilten Stichprobentypen bezieht. Mithilfe der Margin-Theorie lässt sich erklären, dass bei einem Trainingsfehler des AdaBoost-Algorithmus von 0 die Generalisierungsleistung des Modells durch fortgesetztes Training weiter verbessert werden kann. Lassen Sie x und y die Eingabe darstellen und […]
Das Perzeptron ist ein binäres lineares Klassifizierungsmodell, das als einfachste Form eines Feedforward-Neuralnetzwerks angesehen werden kann und 1957 von Frank Rosenblatt erfunden wurde. Seine Eingabe ist der Merkmalsvektor der Instanz und seine Ausgabe ist die Kategorie der Instanz.
Bei der Normalisierung werden Daten einem bestimmten Bereich zugeordnet, um die Dimensionen und Dimensionseinheiten von Daten unterschiedlicher Dimensionen zu entfernen und so die Vergleichbarkeit zwischen verschiedenen Datenindikatoren zu verbessern.
Die Proximale Gradientenmethode (PGD) ist ein spezielles Gradientenabstiegsverfahren, das hauptsächlich zur Lösung von Optimierungsproblemen mit nicht differenzierbaren Zielfunktionen verwendet wird.
Mit „Post-Pruning“ ist der Beschneidungsvorgang gemeint, der nach der Generierung des Entscheidungsbaums durchgeführt wird.
Ein probabilistisches grafisches Modell ist ein probabilistisches Modell, das eine Graphstruktur verwendet, um die Beziehung zwischen Variablen auszudrücken.
Das Spaltennamenattribut bezieht sich auf die „namensbezogene“ Eigenschaft der Daten und der entsprechende Wert ist der Name eines Symbols oder Gegenstands.
Die kumulative Fehlerrückausbreitung ist ein neuronaler Netzwerkalgorithmus, der eine auf Gradientenabstieg basierende Strategie anwendet, um Parameter in der negativen Gradientenrichtung des Ziels anzupassen, mit dem Ziel, den Trainingsfehler zu minimieren. Auch bekannt als „Backpropagation-Algorithmus“ oder kurz „BP-Algorithmus“
Das Gruppieren verwandter Beispiele wird im Allgemeinen für unüberwachtes Lernen verwendet. Sobald alle Proben gruppiert wurden, können die Forscher jedem Cluster optional eine Bedeutung zuweisen. Es gibt viele Clustering-Algorithmen, beispielsweise clustert der K-Means-Algorithmus Stichproben basierend auf ihrer Nähe zum Schwerpunkt, wie unten gezeigt: Danach können Forscher […]
Bei der absoluten Mehrheitswahl handelt es sich um eine Wahlmethode, bei der mehr als die Hälfte der gültigen Stimmen abgegeben werden müssen, um anerkannt zu werden. Wenn mehrere Klassifikatoren eine bestimmte Kategorie vorhersagen, wird nur der Teil vorhergesagt, der höher ist als die Hälfte der Gesamtergebnisse. Hier ist die Formel zur Darstellung: $latex {H{ \left( {x} \right) }\text{ […]
Manifold Learning ist eine grundlegende Methode der Mustererkennung, die das Wesentliche der Dinge anhand beobachteter Phänomene erschließt und die inneren Gesetze findet, die die Daten erzeugen. Manifold-Lernen kann in zwei Typen unterteilt werden: linearer Manifold-Lernalgorithmus und nichtlinearer Manifold-Lernalgorithmus. Der nichtlineare Manifold-Lernalgorithmus umfasst die isometrische Abbildung Isomap, die Laplace-Eigenabbildung L […]
Der mittlere quadratische Fehler ist der erwartete Wert, der den Grad der Abweichung zwischen dem geschätzten Wert und dem wahren Wert widerspiegelt. Es wird häufig verwendet, um den Grad der Datenänderung zu bewerten und die Genauigkeit der Daten vorherzusagen. Angenommen, es gibt einen Parameter $latex { \theta }$ , dessen Schätzfunktion $latex {T}$ ist, dann ist $latex {MSE [...]
Bei der maschinellen Übersetzung werden Computer zur Konvertierung zwischen verschiedenen Sprachen eingesetzt. Dabei wird normalerweise die Ausgangssprache in die Zielsprache übersetzt. Übersetzungsprozess Aus der Perspektive der menschlichen Übersetzung zur maschinellen Übersetzung kann der Übersetzungsprozess wie folgt unterteilt werden: Entschlüsseln Sie die Bedeutung des Quelltextes und übersetzen Sie die analysierte Bedeutung in die Zielsprache. Übersetzungsmethoden Allgemeine Schritte der maschinellen Übersetzung […]
Die Mannigfaltigkeitsannahme ist eine gängige Annahme beim halbüberwachten Lernen, eine andere ist die Clusterannahme. Die Mannigfaltigkeitsannahme besagt, dass Beispiele mit ähnlichen Eigenschaften normalerweise in kleinen lokalen Nachbarschaften liegen und daher ähnliche Bezeichnungen haben, was die lokale Glätte der Entscheidungsfunktion widerspiegelt. Im Gegensatz zur Clusterhypothese, die sich auf die Gesamtmerkmale konzentriert, konzentriert sich die Mannigfaltigkeitshypothese mehr auf die [...]
Die Maximum-Likelihood-Schätzung ist eine Schätzmethode, die hauptsächlich zur Bestimmung von Modellparametern verwendet wird, indem die möglichen Daten ermittelt werden, die den Beobachtungswert des Modells maximieren, und diese als endgültige Auswahl verwendet werden. Bei der Maximum-Likelihood-Schätzung erfüllt die Stichprobenziehung die Annahme einer unabhängigen und identischen Verteilung. Sein Zweck besteht darin, aus bekannten Stichprobenergebnissen den Parameterwert abzuleiten, der mit der höchsten Wahrscheinlichkeit zu verwandten Ergebnissen führt.
Lazy Learning ist eine Methode zur Verarbeitung von Trainingssätzen, bei der das Training erfolgt, sobald die Testbeispiele vorliegen. Im Gegensatz dazu beginnt Eager Learning bereits während der Trainingsphase mit dem Lernen der Beispiele. Wenn sich die Aufgabendaten häufig ändern, kann Lazy Learning verwendet werden. Zunächst wird kein Training durchgeführt. Die Vorhersageanforderung wird empfangen und dann werden die aktuellen Daten für Wahrscheinlichkeiten verwendet.
Analogielernen ist eine Methode des kognitiven Denkens und Schlussfolgerns. Dabei werden zwei Arten von Dingen oder Situationen verglichen, um ihre Ähnlichkeiten auf Objektebene herauszufinden, und auf dieser Grundlage wird die Beziehung zwischen Dingen und Situationen verglichen. Durch entsprechendes Anordnen/Austauschen entsprechend einer anderen Sache erhält man die entsprechende Lösung. Es gibt mehrere Klassifizierungsmethoden für das Analogielernen […]
Die Holdout-Methode ist eine Methode zur Modellbewertung, die den Datensatz D in zwei sich gegenseitig ausschließende Sätze aufteilt. Angenommen, ein Satz ist der Trainingssatz S und der andere der Testsatz T, dann gilt: D = S ∪ T , S ∩ T = ∅. Durch die Aufteilung des Trainings-/Testsatzes sollte die Datenverteilung möglichst konsistent bleiben. Um zu vermeiden […]
Beschneiden ist eine Methode, um die Verzweigung eines Entscheidungsbaums zu verhindern. Es ist ein Mittel, um das Problem der Überanpassung in Entscheidungsbäumen zu lösen.
Das Testen von Hypothesen ist eine Methode zum Testen statistischer Hypothesen, die hauptsächlich in der Inferenzstatistik verwendet wird. Dabei ist eine „statistische Hypothese“ eine wissenschaftliche Hypothese, die hauptsächlich durch Beobachtung des Modells von Zufallsvariablen getestet wird. Unter der Voraussetzung, dass die unbekannten Parameter geschätzt werden können, können anhand der Ergebnisse entsprechende Rückschlüsse auf die unbekannten Parameterwerte gezogen werden. In der Statistik ist eine Annahme über einen Parameter eine Annahme über einen oder mehrere […]
Ensemble-Lernen ist die Idee, mehrere Modelle zu einem hochpräzisen Modell zu kombinieren. Es wird hauptsächlich im Bereich des maschinellen Lernens verwendet. Es handelt sich nicht um einen einzelnen Algorithmus für maschinelles Lernen, sondern die Lernaufgabe wird durch die Erstellung und Kombination mehrerer Lerner erledigt. Ensemble-Lernen kann für Klassifizierungsprobleme, Regressionsprobleme, Merkmalsauswahl, Ausreißererkennung usw. verwendet werden. Man kann sagen, dass alle maschinellen Lernverfahren […]
Die fehlerkorrigierende Ausgabecodierungsmethode ECOC kann Mehrklassenprobleme in mehrere Zweiklassenprobleme umwandeln, und der fehlerkorrigierende Ausgabecode selbst verfügt über Fehlerkorrekturfunktionen, die die Vorhersagegenauigkeit von überwachten Lernalgorithmen verbessern können. Die Ausgabekategoriecodierung kann in zwei Kategorien unterteilt werden, d. h. jede Kategorie entspricht einer binären Bitfolge der Länge n, die insgesamt m Codewörter bildet, die […]
Das empirische Risiko zeigt die Fähigkeit des Modells, Trainingsbeispiele vorherzusagen. Es wird ermittelt, indem die Verlustfunktion einmal für alle Trainingsbeispiele berechnet und dann der Durchschnitt akkumuliert wird. Die Verlustfunktion ist die Grundlage des erwarteten Risikos, des empirischen Risikos und des strukturellen Risikos. Die Verlustfunktion gilt für eine einzelne spezifische Stichprobe und stellt die Lücke zwischen dem vom Modell vorhergesagten Wert und dem wahren Wert dar. […]
K-Means-Clustering ist eine Methode zur Vektorquantisierung, die früher in der Signalverarbeitung verwendet wurde. Derzeit wird es hauptsächlich als Clusteranalysemethode im Bereich Data Mining verwendet. Der Zweck der K-Means-Clusterbildung besteht darin, n Punkte in k Cluster aufzuteilen, sodass jeder Punkt zu dem Cluster gehört, der dem nächsten Mittelwert entspricht, und diesen als Clusterkriterium zu verwenden. Diese Art von Problem [...]
Die Margin-Theorie ist ein Konzept in Support Vector Machines, wobei sich der Margin auf den Mindestabstand zwischen zwei durch eine Hyperebene geteilten Stichprobentypen bezieht. Mithilfe der Margin-Theorie lässt sich erklären, dass bei einem Trainingsfehler des AdaBoost-Algorithmus von 0 die Generalisierungsleistung des Modells durch fortgesetztes Training weiter verbessert werden kann. Lassen Sie x und y die Eingabe darstellen und […]
Das Perzeptron ist ein binäres lineares Klassifizierungsmodell, das als einfachste Form eines Feedforward-Neuralnetzwerks angesehen werden kann und 1957 von Frank Rosenblatt erfunden wurde. Seine Eingabe ist der Merkmalsvektor der Instanz und seine Ausgabe ist die Kategorie der Instanz.
Bei der Normalisierung werden Daten einem bestimmten Bereich zugeordnet, um die Dimensionen und Dimensionseinheiten von Daten unterschiedlicher Dimensionen zu entfernen und so die Vergleichbarkeit zwischen verschiedenen Datenindikatoren zu verbessern.
Die Proximale Gradientenmethode (PGD) ist ein spezielles Gradientenabstiegsverfahren, das hauptsächlich zur Lösung von Optimierungsproblemen mit nicht differenzierbaren Zielfunktionen verwendet wird.
Mit „Post-Pruning“ ist der Beschneidungsvorgang gemeint, der nach der Generierung des Entscheidungsbaums durchgeführt wird.
Ein probabilistisches grafisches Modell ist ein probabilistisches Modell, das eine Graphstruktur verwendet, um die Beziehung zwischen Variablen auszudrücken.