Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Definitionen und Erklärungen wichtiger KI- und ML-Konzepte erkunden
Der Naive-Bayes-Klassifikator übernimmt die „Annahme der bedingten Unabhängigkeit von Attributen“: Bei bekannten Kategorien wird angenommen, dass alle Attribute voneinander unabhängig sind. Verbessertes Naive Bayes: Um zu verhindern, dass die von anderen Attributen getragenen Informationen durch Attributwerte „gelöscht“ werden, die nie im Trainingssatz erschienen sind, wird bei der Schätzung von Wahrscheinlichkeitswerten normalerweise eine „Glättung“ durchgeführt und häufig eine „Laplace-Korrektur“ verwendet; […]
Generative Adversarial Networks sind eine Methode des unüberwachten Lernens, die dadurch implementiert wird, dass zwei neuronale Netzwerke miteinander konkurrieren. Diese Methode wurde 2014 von Ian Goodfellow vorgeschlagen. Generative Adversarial Networks umfassen generative Netzwerke und diskriminative Netzwerke. Das generative Netzwerk nimmt Zufallsstichproben im latenten Raum als Eingabe und die Ausgabe muss das Training imitieren […]
Beim maschinellen Lernen können generative Modelle verwendet werden, um Daten direkt zu modellieren oder um bedingte Wahrscheinlichkeitsverteilungen zwischen Variablen zu ermitteln. Die bedingten Wahrscheinlichkeitsverteilungen können auf generativen Modellen des Bayes-Theorems basieren. Generative Modelle eignen sich für unbeaufsichtigte Aufgaben wie Klassifizierung und Clustering. Zu den typischen generativen Modellen gehören: Gaußsche Mischmodelle und andere Mischungen […]
Die Graphentheorie ist ein Zweig der kombinatorischen Mathematik. Sein Hauptforschungsobjekt sind Graphen. Mit Graph ist hier eine Figur gemeint, die aus mehreren gegebenen Knoten und Kanten besteht, die die beiden Knoten verbinden. Es wird häufig verwendet, um besondere Beziehungen zwischen Dingen zu beschreiben, wobei Eckpunkte Dinge darstellen und Kanten die Verbindungen zwischen ihnen darstellen. Die Graphentheorie entstand aus dem Problem der sieben Brücken von Königsberg, das 1736 von Euler gelöst wurde […]
Das Problem der Gradientenexplosion tritt normalerweise in tiefen Netzwerken auf, wenn der Gewichtsinitialisierungswert zu groß ist, und wird im Allgemeinen deutlicher, wenn die Anzahl der Netzwerkschichten zunimmt. Wenn das Ergebnis durch die Ableitung der Aktivierungsfunktion größer als 1 ist, nimmt mit zunehmender Anzahl von Schichten die endgültige Gradientenaktualisierung exponentiell zu, d. h. es kommt zu einer Gradientenexplosion. wenn das Ergebnis kleiner als 1 ist, dann ist die Anzahl der Schichten […]
Eigenzerlegung ist eine Methode zur Darstellung des Produkts von Matrizen durch Zerlegung der Matrix in Eigenwerte und Eigenvektoren. Allerdings können nur diagonalisierbare Matrizen eigenzerlegt werden. Die Matrizenmultiplikation entspricht einer Transformation, d. h., sie besteht darin, einen beliebigen Vektor in einen neuen Vektor anderer Richtung und Länge umzuwandeln. Bei diesem Vorgang wird der ursprüngliche Vektor gedreht und erweitert.
Ein Algorithmus ist eine effiziente Möglichkeit, eine Liste endlicher Länge darzustellen. In der Mathematik und Informatik kann ein Algorithmus als jede wohldefinierte Abfolge bestimmter Rechenschritte betrachtet werden.
Das harmonische Mittel ist eine Methode zur Berechnung des Durchschnitts, die in zwei Formen unterteilt werden kann: einfach und gewichtet. Der gewichtete harmonische Mittelwert ist eine Variation des gewichteten arithmetischen Mittelwerts. In den meisten Fällen kennen wir nur die Summe der Werte eines bestimmten Zeichens in jeder Gruppe, m, aber es fehlen Informationen über die Gesamtzahl der Einheiten f. Daher können wir die Methode des gewichteten arithmetischen Mittels nicht direkt zur Berechnung verwenden, und […]
Versuch und Irrtum ist eine Methode zur Lösung von Problemen durch wiederholte Versuche.
Schlupfvariablen sind Hilfsvariablen, die bei der Anwendung der Soft-Margin-Methode zur Klassifizierung hinzugefügt werden. Es wird eingeführt, um die Auswirkungen von Ausreißern auf die Klassifizierung zu lösen.
Der stochastische Gradientenabstieg (SGD) ist ein iterativer Lösungsansatz des Gradientenabstiegsalgorithmus.
Eine Ersatzfunktion ist eine Funktion, die verwendet wird, wenn die Zielfunktion nicht verwendet werden kann oder eine schlechte Leistung erbringt.
Die Verlustfunktion ist eine Metrik, die zum Messen und Vorhersagen der Qualität eines Modells verwendet wird. Es spiegelt die Lücke zwischen dem vom Modell vorhergesagten Wert und dem wahren Wert wider. Es ist der Kernbestandteil der empirischen Risikofunktion und auch eine Komponente der strukturellen Risikofunktion. Gängige Verlustfunktionen Logarithmische Verlustfunktion Quadratische Verlustfunktion Exponentielle Verlustfunktion Scharnierverlustfunktion
Bei der Merkmalsauswahl handelt es sich um den Prozess der Auswahl von Merkmalsteilmengen. Es wird normalerweise zum Erstellen von Modellen verwendet. Seine Vorteile sind folgende: Vereinfachung des Modells; Verkürzen Sie die Trainingszeit; Verbessern Sie die Vielseitigkeit und reduzieren Sie Überanpassung. Der Merkmalsauswahlalgorithmus kann als Kombination aus Suchtechnologie und Bewertungsindex betrachtet werden. Ersteres liefert Kandidaten für neue Feature-Teilmengen und Letzteres wird verwendet, um verschiedene Feature-Teilmengen auszuwählen.
Die Zielfunktion bezeichnet die Form des durch die Designvariablen ausgedrückten angestrebten Ziels und ist eine Funktion der Designvariablen.
Reinforcement Learning (RL) ist ein wichtiger Zweig des maschinellen Lernens und ein Produkt der Schnittstelle mehrerer Disziplinen und Bereiche. Sein Wesen besteht darin, das Entscheidungsproblem zu lösen, d. h. Entscheidungen automatisch und kontinuierlich zu treffen.
Bewertungsfunktionen sind die für das ausgewählte Modell verfügbaren „Bewertungstypen“. Beispielsweise der vorhergesagte Wert eines Ziels, die Wahrscheinlichkeit eines vorhergesagten Werts oder die Wahrscheinlichkeit eines ausgewählten Zielwerts.
Die Singulärwertzerlegung (SVD) ist eine wichtige Methode zur Matrixzerlegung. Die Grundlage der Eigenvektorzerlegung symmetrischer Arrays ist die Spektralanalyse, und die Singulärwertzerlegung ist die Verallgemeinerung der Theorie der Spektralanalyse auf beliebige Matrizen.
Soft Voting wird auch als gewichtete Durchschnittswahrscheinlichkeitsabstimmung bezeichnet. Es verwendet die Ausgabeklassenwahrscheinlichkeit für die Klassifizierungsabstimmungsmethode. Durch Eingabe von Gewichten wird der gewichtete Durchschnitt der Klassenwahrscheinlichkeit jeder Klasse ermittelt und die Klasse mit dem höheren Wert ausgewählt.
Spektrales Clustering (SC) ist eine Clustering-Methode, die auf der Graphentheorie basiert. Dabei wird ein gewichteter ungerichteter Graph in zwei oder mehr optimale Teilgraphen unterteilt, wobei die Teilgraphen möglichst ähnlich und die Abstände zwischen den Teilgraphen möglichst groß gemacht werden, um den gemeinsamen Clusterzweck zu erreichen.
Der harte Rand ist die Grundlage für die Auswahl der Segmentierungshyperebene in der Support Vector Machine. Es bezieht sich auf die Situation, in der die Klassifizierung völlig genau ist und keine Verlustfunktion vorhanden ist, dh der Verlustwert 0 ist. Es ist nur erforderlich, die Ebene genau in der Mitte zweier heterogener Klassen zu finden. Das Gegenteil einer harten Marge ist eine weiche Marge. Soft Margin bedeutet, dass ein gewisser Fehler bei der Probenklassifizierung zugelassen wird, wobei die Optimierungsfunktion aus zwei Teilen besteht, […]
Glättung ist eine häufig verwendete Methode der Datenverarbeitung.
Die Segmentierungsvariable ist die Referenzvariable, die bei der räumlichen Segmentierung ausgewählt wird. Es handelt sich um einen Variablentyp, der zur Segmentierung bei Klassifizierungsproblemen verwendet wird, um eine optimale Klassifizierung zu erreichen.
Support Vector Machine (SVM) ist eine überwachte Lernmethode zur Verarbeitung von Daten in Klassifizierungs- und Regressionsanalysen.
Der Naive-Bayes-Klassifikator übernimmt die „Annahme der bedingten Unabhängigkeit von Attributen“: Bei bekannten Kategorien wird angenommen, dass alle Attribute voneinander unabhängig sind. Verbessertes Naive Bayes: Um zu verhindern, dass die von anderen Attributen getragenen Informationen durch Attributwerte „gelöscht“ werden, die nie im Trainingssatz erschienen sind, wird bei der Schätzung von Wahrscheinlichkeitswerten normalerweise eine „Glättung“ durchgeführt und häufig eine „Laplace-Korrektur“ verwendet; […]
Generative Adversarial Networks sind eine Methode des unüberwachten Lernens, die dadurch implementiert wird, dass zwei neuronale Netzwerke miteinander konkurrieren. Diese Methode wurde 2014 von Ian Goodfellow vorgeschlagen. Generative Adversarial Networks umfassen generative Netzwerke und diskriminative Netzwerke. Das generative Netzwerk nimmt Zufallsstichproben im latenten Raum als Eingabe und die Ausgabe muss das Training imitieren […]
Beim maschinellen Lernen können generative Modelle verwendet werden, um Daten direkt zu modellieren oder um bedingte Wahrscheinlichkeitsverteilungen zwischen Variablen zu ermitteln. Die bedingten Wahrscheinlichkeitsverteilungen können auf generativen Modellen des Bayes-Theorems basieren. Generative Modelle eignen sich für unbeaufsichtigte Aufgaben wie Klassifizierung und Clustering. Zu den typischen generativen Modellen gehören: Gaußsche Mischmodelle und andere Mischungen […]
Die Graphentheorie ist ein Zweig der kombinatorischen Mathematik. Sein Hauptforschungsobjekt sind Graphen. Mit Graph ist hier eine Figur gemeint, die aus mehreren gegebenen Knoten und Kanten besteht, die die beiden Knoten verbinden. Es wird häufig verwendet, um besondere Beziehungen zwischen Dingen zu beschreiben, wobei Eckpunkte Dinge darstellen und Kanten die Verbindungen zwischen ihnen darstellen. Die Graphentheorie entstand aus dem Problem der sieben Brücken von Königsberg, das 1736 von Euler gelöst wurde […]
Das Problem der Gradientenexplosion tritt normalerweise in tiefen Netzwerken auf, wenn der Gewichtsinitialisierungswert zu groß ist, und wird im Allgemeinen deutlicher, wenn die Anzahl der Netzwerkschichten zunimmt. Wenn das Ergebnis durch die Ableitung der Aktivierungsfunktion größer als 1 ist, nimmt mit zunehmender Anzahl von Schichten die endgültige Gradientenaktualisierung exponentiell zu, d. h. es kommt zu einer Gradientenexplosion. wenn das Ergebnis kleiner als 1 ist, dann ist die Anzahl der Schichten […]
Eigenzerlegung ist eine Methode zur Darstellung des Produkts von Matrizen durch Zerlegung der Matrix in Eigenwerte und Eigenvektoren. Allerdings können nur diagonalisierbare Matrizen eigenzerlegt werden. Die Matrizenmultiplikation entspricht einer Transformation, d. h., sie besteht darin, einen beliebigen Vektor in einen neuen Vektor anderer Richtung und Länge umzuwandeln. Bei diesem Vorgang wird der ursprüngliche Vektor gedreht und erweitert.
Ein Algorithmus ist eine effiziente Möglichkeit, eine Liste endlicher Länge darzustellen. In der Mathematik und Informatik kann ein Algorithmus als jede wohldefinierte Abfolge bestimmter Rechenschritte betrachtet werden.
Das harmonische Mittel ist eine Methode zur Berechnung des Durchschnitts, die in zwei Formen unterteilt werden kann: einfach und gewichtet. Der gewichtete harmonische Mittelwert ist eine Variation des gewichteten arithmetischen Mittelwerts. In den meisten Fällen kennen wir nur die Summe der Werte eines bestimmten Zeichens in jeder Gruppe, m, aber es fehlen Informationen über die Gesamtzahl der Einheiten f. Daher können wir die Methode des gewichteten arithmetischen Mittels nicht direkt zur Berechnung verwenden, und […]
Versuch und Irrtum ist eine Methode zur Lösung von Problemen durch wiederholte Versuche.
Schlupfvariablen sind Hilfsvariablen, die bei der Anwendung der Soft-Margin-Methode zur Klassifizierung hinzugefügt werden. Es wird eingeführt, um die Auswirkungen von Ausreißern auf die Klassifizierung zu lösen.
Der stochastische Gradientenabstieg (SGD) ist ein iterativer Lösungsansatz des Gradientenabstiegsalgorithmus.
Eine Ersatzfunktion ist eine Funktion, die verwendet wird, wenn die Zielfunktion nicht verwendet werden kann oder eine schlechte Leistung erbringt.
Die Verlustfunktion ist eine Metrik, die zum Messen und Vorhersagen der Qualität eines Modells verwendet wird. Es spiegelt die Lücke zwischen dem vom Modell vorhergesagten Wert und dem wahren Wert wider. Es ist der Kernbestandteil der empirischen Risikofunktion und auch eine Komponente der strukturellen Risikofunktion. Gängige Verlustfunktionen Logarithmische Verlustfunktion Quadratische Verlustfunktion Exponentielle Verlustfunktion Scharnierverlustfunktion
Bei der Merkmalsauswahl handelt es sich um den Prozess der Auswahl von Merkmalsteilmengen. Es wird normalerweise zum Erstellen von Modellen verwendet. Seine Vorteile sind folgende: Vereinfachung des Modells; Verkürzen Sie die Trainingszeit; Verbessern Sie die Vielseitigkeit und reduzieren Sie Überanpassung. Der Merkmalsauswahlalgorithmus kann als Kombination aus Suchtechnologie und Bewertungsindex betrachtet werden. Ersteres liefert Kandidaten für neue Feature-Teilmengen und Letzteres wird verwendet, um verschiedene Feature-Teilmengen auszuwählen.
Die Zielfunktion bezeichnet die Form des durch die Designvariablen ausgedrückten angestrebten Ziels und ist eine Funktion der Designvariablen.
Reinforcement Learning (RL) ist ein wichtiger Zweig des maschinellen Lernens und ein Produkt der Schnittstelle mehrerer Disziplinen und Bereiche. Sein Wesen besteht darin, das Entscheidungsproblem zu lösen, d. h. Entscheidungen automatisch und kontinuierlich zu treffen.
Bewertungsfunktionen sind die für das ausgewählte Modell verfügbaren „Bewertungstypen“. Beispielsweise der vorhergesagte Wert eines Ziels, die Wahrscheinlichkeit eines vorhergesagten Werts oder die Wahrscheinlichkeit eines ausgewählten Zielwerts.
Die Singulärwertzerlegung (SVD) ist eine wichtige Methode zur Matrixzerlegung. Die Grundlage der Eigenvektorzerlegung symmetrischer Arrays ist die Spektralanalyse, und die Singulärwertzerlegung ist die Verallgemeinerung der Theorie der Spektralanalyse auf beliebige Matrizen.
Soft Voting wird auch als gewichtete Durchschnittswahrscheinlichkeitsabstimmung bezeichnet. Es verwendet die Ausgabeklassenwahrscheinlichkeit für die Klassifizierungsabstimmungsmethode. Durch Eingabe von Gewichten wird der gewichtete Durchschnitt der Klassenwahrscheinlichkeit jeder Klasse ermittelt und die Klasse mit dem höheren Wert ausgewählt.
Spektrales Clustering (SC) ist eine Clustering-Methode, die auf der Graphentheorie basiert. Dabei wird ein gewichteter ungerichteter Graph in zwei oder mehr optimale Teilgraphen unterteilt, wobei die Teilgraphen möglichst ähnlich und die Abstände zwischen den Teilgraphen möglichst groß gemacht werden, um den gemeinsamen Clusterzweck zu erreichen.
Der harte Rand ist die Grundlage für die Auswahl der Segmentierungshyperebene in der Support Vector Machine. Es bezieht sich auf die Situation, in der die Klassifizierung völlig genau ist und keine Verlustfunktion vorhanden ist, dh der Verlustwert 0 ist. Es ist nur erforderlich, die Ebene genau in der Mitte zweier heterogener Klassen zu finden. Das Gegenteil einer harten Marge ist eine weiche Marge. Soft Margin bedeutet, dass ein gewisser Fehler bei der Probenklassifizierung zugelassen wird, wobei die Optimierungsfunktion aus zwei Teilen besteht, […]
Glättung ist eine häufig verwendete Methode der Datenverarbeitung.
Die Segmentierungsvariable ist die Referenzvariable, die bei der räumlichen Segmentierung ausgewählt wird. Es handelt sich um einen Variablentyp, der zur Segmentierung bei Klassifizierungsproblemen verwendet wird, um eine optimale Klassifizierung zu erreichen.
Support Vector Machine (SVM) ist eine überwachte Lernmethode zur Verarbeitung von Daten in Klassifizierungs- und Regressionsanalysen.