Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Definitionen und Erklärungen wichtiger KI- und ML-Konzepte erkunden
Ein Komponentenlerner ist eine Art individueller Lerner, der auf der Grundlage von Ensemblelernen generiert wird. Wenn einzelne Lerner durch unterschiedliche Lernalgorithmen generiert werden, spricht man von einem heterogenen Ensemble, und diese einzelnen Lerner werden als Komponentenlerner bezeichnet.
Erklärbarkeit bedeutet, dass Sie die relevanten Informationen erhalten, die Sie benötigen, wenn Sie ein Problem verstehen oder lösen müssen. Interpretierbarkeit auf Datenebene: Geben Sie dem neuronalen Netzwerk einen klaren symbolischen Ausdruck des internen Wissens, der dem menschlichen Wissensrahmen entspricht, sodass Menschen das neuronale Netzwerk auf semantischer Ebene diagnostizieren und ändern können. Maschinelles Lernen kann das Problem lösen […]
Klassifizierungsalgorithmen im Bereich des maschinellen Lernens unterteilen Attribute in diskrete und kontinuierliche, wobei diskrete Attribute endliche oder unendliche zählbare Werte haben, die durch ganze Zahlen dargestellt werden können oder nicht. Beispielsweise haben die Attribute Haarfarbe, Raucher, medizinischer Test und Getränkegröße alle endliche Werte […]
Kaskadenkorrelation wird als überwachte Lernarchitektur definiert, die zum Aufbau einer minimalen mehrschichtigen Netzwerktopologie verwendet werden kann. Sein Vorteil besteht darin, dass sich Benutzer keine Gedanken über die topologische Struktur des Netzwerks machen müssen und dass seine Lerngeschwindigkeit schneller ist als bei herkömmlichen Lernalgorithmen. Korrelationsalgorithmus Der Kaskadenkorrelationsalgorithmus wird implementiert, indem mit einem minimalen Netzwerk begonnen wird, das nur aus den Ein- und Ausgängen besteht […]
Definition: Unter festgelegten Bedingungen mithilfe eines Referenznormals den Eigenschaften eines Messgeräts, einschließlich eines Referenzmaterials, Werte zuordnen und dessen Anzeigefehler bestimmen. Zweck: Feststellen des Fehlers der Anzeige und ob dieser innerhalb des erwarteten Toleranzbereichs liegt; Um einen gemeldeten Wert der Abweichung vom Sollwert zu erhalten und das Messgerät einzustellen oder die Anzeige zu korrigieren; Um jedem […]
Definition Für die Differentialgleichung $latex \frac{d \mathbf{x}}{dt}=\mathbf{f}(t, \mathbf{x}), \mathbf{x} \in \mathbb{R}^{n}$ , wenn $latex […]
Beim Bootstrapping handelt es sich um eine gleichmäßige Stichprobennahme mit Ersetzung aus einem gegebenen Trainingssatz. Das heißt, wenn eine Stichprobe ausgewählt wird, ist es mit gleicher Wahrscheinlichkeit möglich, dass sie erneut ausgewählt und erneut zum Trainingssatz hinzugefügt wird. Die Bootstrap-Methode wurde erstmals 1979 von Bradley Efron in Annals of Statistics vorgeschlagen.
Bei einer Stichprobe beträgt die Wahrscheinlichkeit, dass sie bei jeder Zufallsstichprobe eines Trainingssatzes mit m Stichproben erfasst wird, 1 m. Die Wahrscheinlichkeit, nicht abgeholt zu werden, beträgt 1−1m. Wenn die Wahrscheinlichkeit, dass m Proben nicht gesammelt werden, (1−1m)m beträgt, dann gilt für m→∞: (1−1m)m→1/e≃0 […]
Eine Boltzmann-Maschine ist eine Art zufälliges neuronales Netzwerk und rekurrentes neuronales Netzwerk, das 1985 von Geoffrey Hinton und Terry Sejnowski erfunden wurde. Eine Boltzmann-Maschine kann als ein zufälliger Prozess betrachtet werden, der die entsprechenden […] generiert.
Definition: Eine Bisektionsmethode ist ein Algorithmus, dessen Eingabe eine geordnete Liste von Elementen ist. Wenn das gesuchte Element in der Liste enthalten ist, gibt die binäre Suche seine Position zurück. andernfalls wird null zurückgegeben. Grundidee: Diese Methode eignet sich, wenn die Datenmenge groß ist. Bei der binären Suche müssen die Daten sortiert werden. Gehen Sie davon aus, dass die Daten in aufsteigender Reihenfolge sind […]
Definition: Der Binomialtest vergleicht die beobachteten Häufigkeiten der beiden Kategorien einer dichotomen Variablen mit den erwarteten Häufigkeiten unter einer Binomialverteilung mit einem angegebenen Wahrscheinlichkeitsparameter. Standardmäßig beträgt der Wahrscheinlichkeitsparameter für beide Gruppen 0,5. Beispiel: Eine Münze wird geworfen und die Wahrscheinlichkeit für Kopf beträgt 1/2. Unter dieser Annahme wird eine Münze 40 Mal geworfen […]
Gibt an, dass es bei der Klassifizierungsaufgabe nur zwei Kategorien gibt. Beispielsweise möchten wir feststellen, ob ein Bild eine Katze darstellt oder nicht. Das heißt, trainieren Sie einen Klassifikator, geben Sie ein Bild ein, das durch den Merkmalsvektor x dargestellt wird, und geben Sie aus, ob es sich um eine Katze handelt, dargestellt durch y = 0 oder 1; Bei der Zwei-Klassen-Klassifizierung wird davon ausgegangen, dass jede Probe mit genau einem Label 0 […] versehen ist.
Definition: Tiefe neuronale Netzwerke haben in vielen Bereichen wie Spracherkennung, Bildverarbeitung und Verarbeitung natürlicher Sprache hervorragende Ergebnisse gezeigt. LSTM kann als Variante von RNN im Vergleich zu RNN langfristige Abhängigkeiten in Daten lernen. Im Jahr 2005 schlug Graves vor, LSTM mit […] zu kombinieren.
Das Bias-Varianz-Dilemma bedeutet, dass es unmöglich ist, Bias und Varianz gleichzeitig zu reduzieren, und dass man nur ein Gleichgewicht zwischen beiden erreichen kann. Wenn Sie im Modell die Abweichung verringern möchten, erhöhen Sie die Komplexität des Modells, um eine Unteranpassung zu verhindern. Gleichzeitig dürfen Sie das Modell jedoch nicht zu komplex gestalten, da dies die Varianz erhöhen und zu einer Überanpassung führen würde. Daher müssen wir ein Gleichgewicht in der Komplexität des Modells finden.
„Bias-Varianz-Zerlegung“ ist ein Tool, das die Generalisierungsleistung von Lernalgorithmen aus der Perspektive von Bias und Varianz erklärt. Die spezifische Definition lautet wie folgt: Angenommen, es gibt K Datensätze, von denen jeder unabhängig aus einer Verteilung p(t,x) extrahiert wird (t stellt die vorherzusagende Variable dar und x stellt die Merkmalsvariable dar). In verschiedenen […]
Definition: Der Unterschied zwischen der erwarteten Ausgabe und der wahren Bezeichnung wird als Bias bezeichnet. Die folgende Abbildung kann den Zusammenhang zwischen Bias und Varianz gut veranschaulichen:
Die Streumatrix zwischen den Klassen wird verwendet, um die Streuung jedes Stichprobenpunkts um den Mittelwert darzustellen. Mathematische Definition
Definition: Das Bayes-Netzwerk ist eines der effektivsten theoretischen Modelle im Bereich des Ausdrucks und der Schlussfolgerung unsicheren Wissens. Ein Bayes-Netzwerk besteht aus Knoten, die Variablen darstellen, und gerichteten Kanten, die diese Knoten verbinden. Knoten stellen Zufallsvariablen dar. Die gerichteten Kanten zwischen Knoten stellen die Beziehungen zwischen Knoten dar. Die Stärke der Beziehung wird mithilfe der bedingten Wahrscheinlichkeit ausgedrückt. Es gibt keinen übergeordneten Knoten […]
Grundlegende Konzepte Die Bayes'sche Entscheidungstheorie ist eine grundlegende Methode zur Entscheidungsfindung mit statistischen Modellen. Die Grundidee ist: Der Ausdruck des Parameters „bedingte Wahrscheinlichkeitsdichte“ und die Vorwahrscheinlichkeit einer bekannten Klasse werden mithilfe der Bayes-Formel in eine Nachwahrscheinlichkeit umgewandelt. Die Entscheidungsklassifizierung erfolgt auf Grundlage der Größe der Posterior-Wahrscheinlichkeit. Zugehörige Formel: Seien D1, D2, ..., Dn Proben […]
Um das Gesamtrisiko zu minimieren, wird die Klassenbezeichnung ausgewählt, die das Risiko R(c|x) für die Stichprobe minimieren kann, d. h. h∗ ist der optimale Bayes-Klassifikator.
Bei der Modellauswahl wählt man typischerweise aus einer Reihe von Kandidatenmodellen das „beste“ Modell aus und verwendet dann dieses ausgewählte „beste“ Modell zur Vorhersage. Im Gegensatz zu einem einzelnen optimalen Modell weist die Bayes'sche Modellmittelung jedem Modell Gewichte zu und führt eine gewichtete Mittelwertbildung durch, um den endgültigen Vorhersagewert zu bestimmen. Darunter ist das einem Modell zugewiesene Gewicht […]
Wenn h für jede Stichprobe x das bedingte Risiko R(h(x)|x) minimieren kann, wird auch das Gesamtrisiko minimiert. Dies führt zur Bayes-Entscheidungsregel: Um das Gesamtrisiko zu minimieren, müssen wir nur diejenige auswählen, die das bedingte Risiko R(c|x […]) erfüllt.
BN ist eine Reihe von Regularisierungsmethoden, die das Training großer Faltungsnetzwerke beschleunigen und die Klassifizierungsgenauigkeit nach der Konvergenz verbessern können. Wenn BN in einer bestimmten Schicht eines neuronalen Netzwerks verwendet wird, standardisiert es die internen Daten jedes Mini-Batches, normalisiert die Ausgabe auf die Normalverteilung von N(0,1) und reduziert […]
Beim Ensemble-Lernen sind die von der Gruppe generierten „individuellen Lernenden“ homogen. Solche Lerner werden als Basislerner bezeichnet, und die entsprechenden Lernalgorithmen heißen Basislernalgorithmen.
Ein Komponentenlerner ist eine Art individueller Lerner, der auf der Grundlage von Ensemblelernen generiert wird. Wenn einzelne Lerner durch unterschiedliche Lernalgorithmen generiert werden, spricht man von einem heterogenen Ensemble, und diese einzelnen Lerner werden als Komponentenlerner bezeichnet.
Erklärbarkeit bedeutet, dass Sie die relevanten Informationen erhalten, die Sie benötigen, wenn Sie ein Problem verstehen oder lösen müssen. Interpretierbarkeit auf Datenebene: Geben Sie dem neuronalen Netzwerk einen klaren symbolischen Ausdruck des internen Wissens, der dem menschlichen Wissensrahmen entspricht, sodass Menschen das neuronale Netzwerk auf semantischer Ebene diagnostizieren und ändern können. Maschinelles Lernen kann das Problem lösen […]
Klassifizierungsalgorithmen im Bereich des maschinellen Lernens unterteilen Attribute in diskrete und kontinuierliche, wobei diskrete Attribute endliche oder unendliche zählbare Werte haben, die durch ganze Zahlen dargestellt werden können oder nicht. Beispielsweise haben die Attribute Haarfarbe, Raucher, medizinischer Test und Getränkegröße alle endliche Werte […]
Kaskadenkorrelation wird als überwachte Lernarchitektur definiert, die zum Aufbau einer minimalen mehrschichtigen Netzwerktopologie verwendet werden kann. Sein Vorteil besteht darin, dass sich Benutzer keine Gedanken über die topologische Struktur des Netzwerks machen müssen und dass seine Lerngeschwindigkeit schneller ist als bei herkömmlichen Lernalgorithmen. Korrelationsalgorithmus Der Kaskadenkorrelationsalgorithmus wird implementiert, indem mit einem minimalen Netzwerk begonnen wird, das nur aus den Ein- und Ausgängen besteht […]
Definition: Unter festgelegten Bedingungen mithilfe eines Referenznormals den Eigenschaften eines Messgeräts, einschließlich eines Referenzmaterials, Werte zuordnen und dessen Anzeigefehler bestimmen. Zweck: Feststellen des Fehlers der Anzeige und ob dieser innerhalb des erwarteten Toleranzbereichs liegt; Um einen gemeldeten Wert der Abweichung vom Sollwert zu erhalten und das Messgerät einzustellen oder die Anzeige zu korrigieren; Um jedem […]
Definition Für die Differentialgleichung $latex \frac{d \mathbf{x}}{dt}=\mathbf{f}(t, \mathbf{x}), \mathbf{x} \in \mathbb{R}^{n}$ , wenn $latex […]
Beim Bootstrapping handelt es sich um eine gleichmäßige Stichprobennahme mit Ersetzung aus einem gegebenen Trainingssatz. Das heißt, wenn eine Stichprobe ausgewählt wird, ist es mit gleicher Wahrscheinlichkeit möglich, dass sie erneut ausgewählt und erneut zum Trainingssatz hinzugefügt wird. Die Bootstrap-Methode wurde erstmals 1979 von Bradley Efron in Annals of Statistics vorgeschlagen.
Bei einer Stichprobe beträgt die Wahrscheinlichkeit, dass sie bei jeder Zufallsstichprobe eines Trainingssatzes mit m Stichproben erfasst wird, 1 m. Die Wahrscheinlichkeit, nicht abgeholt zu werden, beträgt 1−1m. Wenn die Wahrscheinlichkeit, dass m Proben nicht gesammelt werden, (1−1m)m beträgt, dann gilt für m→∞: (1−1m)m→1/e≃0 […]
Eine Boltzmann-Maschine ist eine Art zufälliges neuronales Netzwerk und rekurrentes neuronales Netzwerk, das 1985 von Geoffrey Hinton und Terry Sejnowski erfunden wurde. Eine Boltzmann-Maschine kann als ein zufälliger Prozess betrachtet werden, der die entsprechenden […] generiert.
Definition: Eine Bisektionsmethode ist ein Algorithmus, dessen Eingabe eine geordnete Liste von Elementen ist. Wenn das gesuchte Element in der Liste enthalten ist, gibt die binäre Suche seine Position zurück. andernfalls wird null zurückgegeben. Grundidee: Diese Methode eignet sich, wenn die Datenmenge groß ist. Bei der binären Suche müssen die Daten sortiert werden. Gehen Sie davon aus, dass die Daten in aufsteigender Reihenfolge sind […]
Definition: Der Binomialtest vergleicht die beobachteten Häufigkeiten der beiden Kategorien einer dichotomen Variablen mit den erwarteten Häufigkeiten unter einer Binomialverteilung mit einem angegebenen Wahrscheinlichkeitsparameter. Standardmäßig beträgt der Wahrscheinlichkeitsparameter für beide Gruppen 0,5. Beispiel: Eine Münze wird geworfen und die Wahrscheinlichkeit für Kopf beträgt 1/2. Unter dieser Annahme wird eine Münze 40 Mal geworfen […]
Gibt an, dass es bei der Klassifizierungsaufgabe nur zwei Kategorien gibt. Beispielsweise möchten wir feststellen, ob ein Bild eine Katze darstellt oder nicht. Das heißt, trainieren Sie einen Klassifikator, geben Sie ein Bild ein, das durch den Merkmalsvektor x dargestellt wird, und geben Sie aus, ob es sich um eine Katze handelt, dargestellt durch y = 0 oder 1; Bei der Zwei-Klassen-Klassifizierung wird davon ausgegangen, dass jede Probe mit genau einem Label 0 […] versehen ist.
Definition: Tiefe neuronale Netzwerke haben in vielen Bereichen wie Spracherkennung, Bildverarbeitung und Verarbeitung natürlicher Sprache hervorragende Ergebnisse gezeigt. LSTM kann als Variante von RNN im Vergleich zu RNN langfristige Abhängigkeiten in Daten lernen. Im Jahr 2005 schlug Graves vor, LSTM mit […] zu kombinieren.
Das Bias-Varianz-Dilemma bedeutet, dass es unmöglich ist, Bias und Varianz gleichzeitig zu reduzieren, und dass man nur ein Gleichgewicht zwischen beiden erreichen kann. Wenn Sie im Modell die Abweichung verringern möchten, erhöhen Sie die Komplexität des Modells, um eine Unteranpassung zu verhindern. Gleichzeitig dürfen Sie das Modell jedoch nicht zu komplex gestalten, da dies die Varianz erhöhen und zu einer Überanpassung führen würde. Daher müssen wir ein Gleichgewicht in der Komplexität des Modells finden.
„Bias-Varianz-Zerlegung“ ist ein Tool, das die Generalisierungsleistung von Lernalgorithmen aus der Perspektive von Bias und Varianz erklärt. Die spezifische Definition lautet wie folgt: Angenommen, es gibt K Datensätze, von denen jeder unabhängig aus einer Verteilung p(t,x) extrahiert wird (t stellt die vorherzusagende Variable dar und x stellt die Merkmalsvariable dar). In verschiedenen […]
Definition: Der Unterschied zwischen der erwarteten Ausgabe und der wahren Bezeichnung wird als Bias bezeichnet. Die folgende Abbildung kann den Zusammenhang zwischen Bias und Varianz gut veranschaulichen:
Die Streumatrix zwischen den Klassen wird verwendet, um die Streuung jedes Stichprobenpunkts um den Mittelwert darzustellen. Mathematische Definition
Definition: Das Bayes-Netzwerk ist eines der effektivsten theoretischen Modelle im Bereich des Ausdrucks und der Schlussfolgerung unsicheren Wissens. Ein Bayes-Netzwerk besteht aus Knoten, die Variablen darstellen, und gerichteten Kanten, die diese Knoten verbinden. Knoten stellen Zufallsvariablen dar. Die gerichteten Kanten zwischen Knoten stellen die Beziehungen zwischen Knoten dar. Die Stärke der Beziehung wird mithilfe der bedingten Wahrscheinlichkeit ausgedrückt. Es gibt keinen übergeordneten Knoten […]
Grundlegende Konzepte Die Bayes'sche Entscheidungstheorie ist eine grundlegende Methode zur Entscheidungsfindung mit statistischen Modellen. Die Grundidee ist: Der Ausdruck des Parameters „bedingte Wahrscheinlichkeitsdichte“ und die Vorwahrscheinlichkeit einer bekannten Klasse werden mithilfe der Bayes-Formel in eine Nachwahrscheinlichkeit umgewandelt. Die Entscheidungsklassifizierung erfolgt auf Grundlage der Größe der Posterior-Wahrscheinlichkeit. Zugehörige Formel: Seien D1, D2, ..., Dn Proben […]
Um das Gesamtrisiko zu minimieren, wird die Klassenbezeichnung ausgewählt, die das Risiko R(c|x) für die Stichprobe minimieren kann, d. h. h∗ ist der optimale Bayes-Klassifikator.
Bei der Modellauswahl wählt man typischerweise aus einer Reihe von Kandidatenmodellen das „beste“ Modell aus und verwendet dann dieses ausgewählte „beste“ Modell zur Vorhersage. Im Gegensatz zu einem einzelnen optimalen Modell weist die Bayes'sche Modellmittelung jedem Modell Gewichte zu und führt eine gewichtete Mittelwertbildung durch, um den endgültigen Vorhersagewert zu bestimmen. Darunter ist das einem Modell zugewiesene Gewicht […]
Wenn h für jede Stichprobe x das bedingte Risiko R(h(x)|x) minimieren kann, wird auch das Gesamtrisiko minimiert. Dies führt zur Bayes-Entscheidungsregel: Um das Gesamtrisiko zu minimieren, müssen wir nur diejenige auswählen, die das bedingte Risiko R(c|x […]) erfüllt.
BN ist eine Reihe von Regularisierungsmethoden, die das Training großer Faltungsnetzwerke beschleunigen und die Klassifizierungsgenauigkeit nach der Konvergenz verbessern können. Wenn BN in einer bestimmten Schicht eines neuronalen Netzwerks verwendet wird, standardisiert es die internen Daten jedes Mini-Batches, normalisiert die Ausgabe auf die Normalverteilung von N(0,1) und reduziert […]
Beim Ensemble-Lernen sind die von der Gruppe generierten „individuellen Lernenden“ homogen. Solche Lerner werden als Basislerner bezeichnet, und die entsprechenden Lernalgorithmen heißen Basislernalgorithmen.