Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Definitionen und Erklärungen wichtiger KI- und ML-Konzepte erkunden
Lazy Learning ist eine Methode zur Verarbeitung von Trainingssätzen, bei der das Training erfolgt, sobald die Testbeispiele vorliegen. Im Gegensatz dazu beginnt Eager Learning bereits während der Trainingsphase mit dem Lernen der Beispiele. Wenn sich die Aufgabendaten häufig ändern, kann Lazy Learning verwendet werden. Zunächst wird kein Training durchgeführt. Die Vorhersageanforderung wird empfangen und dann werden die aktuellen Daten für Wahrscheinlichkeiten verwendet.
Analogielernen ist eine Methode des kognitiven Denkens und Schlussfolgerns. Dabei werden zwei Arten von Dingen oder Situationen verglichen, um ihre Ähnlichkeiten auf Objektebene herauszufinden, und auf dieser Grundlage wird die Beziehung zwischen Dingen und Situationen verglichen. Durch entsprechendes Anordnen/Austauschen entsprechend einer anderen Sache erhält man die entsprechende Lösung. Es gibt mehrere Klassifizierungsmethoden für das Analogielernen […]
Die Holdout-Methode ist eine Methode zur Modellbewertung, die den Datensatz D in zwei sich gegenseitig ausschließende Sätze aufteilt. Angenommen, ein Satz ist der Trainingssatz S und der andere der Testsatz T, dann gilt: D = S ∪ T , S ∩ T = ∅. Durch die Aufteilung des Trainings-/Testsatzes sollte die Datenverteilung möglichst konsistent bleiben. Um zu vermeiden […]
Beschneiden ist eine Methode, um die Verzweigung eines Entscheidungsbaums zu verhindern. Es ist ein Mittel, um das Problem der Überanpassung in Entscheidungsbäumen zu lösen.
Das Testen von Hypothesen ist eine Methode zum Testen statistischer Hypothesen, die hauptsächlich in der Inferenzstatistik verwendet wird. Dabei ist eine „statistische Hypothese“ eine wissenschaftliche Hypothese, die hauptsächlich durch Beobachtung des Modells von Zufallsvariablen getestet wird. Unter der Voraussetzung, dass die unbekannten Parameter geschätzt werden können, können anhand der Ergebnisse entsprechende Rückschlüsse auf die unbekannten Parameterwerte gezogen werden. In der Statistik ist eine Annahme über einen Parameter eine Annahme über einen oder mehrere […]
Ensemble-Lernen ist die Idee, mehrere Modelle zu einem hochpräzisen Modell zu kombinieren. Es wird hauptsächlich im Bereich des maschinellen Lernens verwendet. Es handelt sich nicht um einen einzelnen Algorithmus für maschinelles Lernen, sondern die Lernaufgabe wird durch die Erstellung und Kombination mehrerer Lerner erledigt. Ensemble-Lernen kann für Klassifizierungsprobleme, Regressionsprobleme, Merkmalsauswahl, Ausreißererkennung usw. verwendet werden. Man kann sagen, dass alle maschinellen Lernverfahren […]
Die fehlerkorrigierende Ausgabecodierungsmethode ECOC kann Mehrklassenprobleme in mehrere Zweiklassenprobleme umwandeln, und der fehlerkorrigierende Ausgabecode selbst verfügt über Fehlerkorrekturfunktionen, die die Vorhersagegenauigkeit von überwachten Lernalgorithmen verbessern können. Die Ausgabekategoriecodierung kann in zwei Kategorien unterteilt werden, d. h. jede Kategorie entspricht einer binären Bitfolge der Länge n, die insgesamt m Codewörter bildet, die […]
Das empirische Risiko zeigt die Fähigkeit des Modells, Trainingsbeispiele vorherzusagen. Es wird ermittelt, indem die Verlustfunktion einmal für alle Trainingsbeispiele berechnet und dann der Durchschnitt akkumuliert wird. Die Verlustfunktion ist die Grundlage des erwarteten Risikos, des empirischen Risikos und des strukturellen Risikos. Die Verlustfunktion gilt für eine einzelne spezifische Stichprobe und stellt die Lücke zwischen dem vom Modell vorhergesagten Wert und dem wahren Wert dar. […]
K-Means-Clustering ist eine Methode zur Vektorquantisierung, die früher in der Signalverarbeitung verwendet wurde. Derzeit wird es hauptsächlich als Clusteranalysemethode im Bereich Data Mining verwendet. Der Zweck der K-Means-Clusterbildung besteht darin, n Punkte in k Cluster aufzuteilen, sodass jeder Punkt zu dem Cluster gehört, der dem nächsten Mittelwert entspricht, und diesen als Clusterkriterium zu verwenden. Diese Art von Problem [...]
Die Margin-Theorie ist ein Konzept in Support Vector Machines, wobei sich der Margin auf den Mindestabstand zwischen zwei durch eine Hyperebene geteilten Stichprobentypen bezieht. Mithilfe der Margin-Theorie lässt sich erklären, dass bei einem Trainingsfehler des AdaBoost-Algorithmus von 0 die Generalisierungsleistung des Modells durch fortgesetztes Training weiter verbessert werden kann. Lassen Sie x und y die Eingabe darstellen und […]
Das Perzeptron ist ein binäres lineares Klassifizierungsmodell, das als einfachste Form eines Feedforward-Neuralnetzwerks angesehen werden kann und 1957 von Frank Rosenblatt erfunden wurde. Seine Eingabe ist der Merkmalsvektor der Instanz und seine Ausgabe ist die Kategorie der Instanz.
Die International Conference on Neural Information Processing Systems (NIPS) ist eine hochkarätige Konferenz im Bereich des maschinellen Lernens und des neuronalen Computing, die jedes Jahr im Dezember von der NIPS Foundation veranstaltet wird.
Bei der Normalisierung werden Daten einem bestimmten Bereich zugeordnet, um die Dimensionen und Dimensionseinheiten von Daten unterschiedlicher Dimensionen zu entfernen und so die Vergleichbarkeit zwischen verschiedenen Datenindikatoren zu verbessern.
Die Proximale Gradientenmethode (PGD) ist ein spezielles Gradientenabstiegsverfahren, das hauptsächlich zur Lösung von Optimierungsproblemen mit nicht differenzierbaren Zielfunktionen verwendet wird.
Mit „Post-Pruning“ ist der Beschneidungsvorgang gemeint, der nach der Generierung des Entscheidungsbaums durchgeführt wird.
Ein probabilistisches grafisches Modell ist ein probabilistisches Modell, das eine Graphstruktur verwendet, um die Beziehung zwischen Variablen auszudrücken.
Regression ist ein überwachter Lernalgorithmus zum Vorhersagen und Modellieren numerischer kontinuierlicher Zufallsvariablen.
Beim Regellernen geht es darum, aus Trainingsdaten einen Satz von WENN-DANN-Regeln zu lernen, die aus atomaren Aussagen bestehen. Es handelt sich um eine Art des unüberwachten Lernens und wird oft als eine Art der Klassifizierung bezeichnet.
Der Stammknoten ist der erste Knoten in einer Baumdatenstruktur. Ein normaler Knoten kann einen übergeordneten Knoten und untergeordnete Knoten haben, aber da der Grundton der erste Knoten ist, hat er nur untergeordnete Knoten.
Particle Swarm Optimization (PSO), auch als Partikelschwarmoptimierung bekannt, ist ein Optimierungsalgorithmus, der auf der Schwarmintelligenztheorie basiert. Die Partikel im Schwarm schließen den Optimierungsprozess des Problems in jedem iterativen Suchvorgang ab.
Die Regel-Engine ist eine Weiterentwicklung der Inferenz-Engine und ist eine in die Anwendung eingebettete Komponente. Es trennt Geschäftsentscheidungen vom Anwendungscode und schreibt Geschäftsentscheidungen mithilfe vordefinierter semantischer Module.
Die Kernnorm ist die Summe der singulären Werte einer Matrix und wird verwendet, um den niedrigen Rang der Matrix einzuschränken.
Bei der Assoziationsanalyse handelt es sich um den Prozess, häufige Muster, Assoziationen, Korrelationen oder kausale Strukturen zwischen Mengen von Elementen oder Objekten in Transaktionsdaten, relationalen Daten oder anderen Informationsträgern zu finden. Methode der Assoziationsanalyse: Apriori-Algorithmus. Der Apriori-Algorithmus ist ein grundlegender Algorithmus zum Mining häufiger Elementsätze, die zum Generieren boolescher Assoziationsregeln erforderlich sind. Es macht […]
Individueller Lerner ist ein relatives Konzept, das den Lerner vor der Integration in das Ensemble-Lernen beschreibt. Entsprechend der Generierungsmethode einzelner Lernender können Ensemble-Lernmethoden in die folgenden zwei Kategorien unterteilt werden: Es gibt starke Abhängigkeiten und Serialisierungsmethoden müssen seriell generiert werden, wie z. B. Boosting; Es bestehen keine starken Abhängigkeiten und die Generierung kann gleichzeitig erfolgen.
Lazy Learning ist eine Methode zur Verarbeitung von Trainingssätzen, bei der das Training erfolgt, sobald die Testbeispiele vorliegen. Im Gegensatz dazu beginnt Eager Learning bereits während der Trainingsphase mit dem Lernen der Beispiele. Wenn sich die Aufgabendaten häufig ändern, kann Lazy Learning verwendet werden. Zunächst wird kein Training durchgeführt. Die Vorhersageanforderung wird empfangen und dann werden die aktuellen Daten für Wahrscheinlichkeiten verwendet.
Analogielernen ist eine Methode des kognitiven Denkens und Schlussfolgerns. Dabei werden zwei Arten von Dingen oder Situationen verglichen, um ihre Ähnlichkeiten auf Objektebene herauszufinden, und auf dieser Grundlage wird die Beziehung zwischen Dingen und Situationen verglichen. Durch entsprechendes Anordnen/Austauschen entsprechend einer anderen Sache erhält man die entsprechende Lösung. Es gibt mehrere Klassifizierungsmethoden für das Analogielernen […]
Die Holdout-Methode ist eine Methode zur Modellbewertung, die den Datensatz D in zwei sich gegenseitig ausschließende Sätze aufteilt. Angenommen, ein Satz ist der Trainingssatz S und der andere der Testsatz T, dann gilt: D = S ∪ T , S ∩ T = ∅. Durch die Aufteilung des Trainings-/Testsatzes sollte die Datenverteilung möglichst konsistent bleiben. Um zu vermeiden […]
Beschneiden ist eine Methode, um die Verzweigung eines Entscheidungsbaums zu verhindern. Es ist ein Mittel, um das Problem der Überanpassung in Entscheidungsbäumen zu lösen.
Das Testen von Hypothesen ist eine Methode zum Testen statistischer Hypothesen, die hauptsächlich in der Inferenzstatistik verwendet wird. Dabei ist eine „statistische Hypothese“ eine wissenschaftliche Hypothese, die hauptsächlich durch Beobachtung des Modells von Zufallsvariablen getestet wird. Unter der Voraussetzung, dass die unbekannten Parameter geschätzt werden können, können anhand der Ergebnisse entsprechende Rückschlüsse auf die unbekannten Parameterwerte gezogen werden. In der Statistik ist eine Annahme über einen Parameter eine Annahme über einen oder mehrere […]
Ensemble-Lernen ist die Idee, mehrere Modelle zu einem hochpräzisen Modell zu kombinieren. Es wird hauptsächlich im Bereich des maschinellen Lernens verwendet. Es handelt sich nicht um einen einzelnen Algorithmus für maschinelles Lernen, sondern die Lernaufgabe wird durch die Erstellung und Kombination mehrerer Lerner erledigt. Ensemble-Lernen kann für Klassifizierungsprobleme, Regressionsprobleme, Merkmalsauswahl, Ausreißererkennung usw. verwendet werden. Man kann sagen, dass alle maschinellen Lernverfahren […]
Die fehlerkorrigierende Ausgabecodierungsmethode ECOC kann Mehrklassenprobleme in mehrere Zweiklassenprobleme umwandeln, und der fehlerkorrigierende Ausgabecode selbst verfügt über Fehlerkorrekturfunktionen, die die Vorhersagegenauigkeit von überwachten Lernalgorithmen verbessern können. Die Ausgabekategoriecodierung kann in zwei Kategorien unterteilt werden, d. h. jede Kategorie entspricht einer binären Bitfolge der Länge n, die insgesamt m Codewörter bildet, die […]
Das empirische Risiko zeigt die Fähigkeit des Modells, Trainingsbeispiele vorherzusagen. Es wird ermittelt, indem die Verlustfunktion einmal für alle Trainingsbeispiele berechnet und dann der Durchschnitt akkumuliert wird. Die Verlustfunktion ist die Grundlage des erwarteten Risikos, des empirischen Risikos und des strukturellen Risikos. Die Verlustfunktion gilt für eine einzelne spezifische Stichprobe und stellt die Lücke zwischen dem vom Modell vorhergesagten Wert und dem wahren Wert dar. […]
K-Means-Clustering ist eine Methode zur Vektorquantisierung, die früher in der Signalverarbeitung verwendet wurde. Derzeit wird es hauptsächlich als Clusteranalysemethode im Bereich Data Mining verwendet. Der Zweck der K-Means-Clusterbildung besteht darin, n Punkte in k Cluster aufzuteilen, sodass jeder Punkt zu dem Cluster gehört, der dem nächsten Mittelwert entspricht, und diesen als Clusterkriterium zu verwenden. Diese Art von Problem [...]
Die Margin-Theorie ist ein Konzept in Support Vector Machines, wobei sich der Margin auf den Mindestabstand zwischen zwei durch eine Hyperebene geteilten Stichprobentypen bezieht. Mithilfe der Margin-Theorie lässt sich erklären, dass bei einem Trainingsfehler des AdaBoost-Algorithmus von 0 die Generalisierungsleistung des Modells durch fortgesetztes Training weiter verbessert werden kann. Lassen Sie x und y die Eingabe darstellen und […]
Das Perzeptron ist ein binäres lineares Klassifizierungsmodell, das als einfachste Form eines Feedforward-Neuralnetzwerks angesehen werden kann und 1957 von Frank Rosenblatt erfunden wurde. Seine Eingabe ist der Merkmalsvektor der Instanz und seine Ausgabe ist die Kategorie der Instanz.
Die International Conference on Neural Information Processing Systems (NIPS) ist eine hochkarätige Konferenz im Bereich des maschinellen Lernens und des neuronalen Computing, die jedes Jahr im Dezember von der NIPS Foundation veranstaltet wird.
Bei der Normalisierung werden Daten einem bestimmten Bereich zugeordnet, um die Dimensionen und Dimensionseinheiten von Daten unterschiedlicher Dimensionen zu entfernen und so die Vergleichbarkeit zwischen verschiedenen Datenindikatoren zu verbessern.
Die Proximale Gradientenmethode (PGD) ist ein spezielles Gradientenabstiegsverfahren, das hauptsächlich zur Lösung von Optimierungsproblemen mit nicht differenzierbaren Zielfunktionen verwendet wird.
Mit „Post-Pruning“ ist der Beschneidungsvorgang gemeint, der nach der Generierung des Entscheidungsbaums durchgeführt wird.
Ein probabilistisches grafisches Modell ist ein probabilistisches Modell, das eine Graphstruktur verwendet, um die Beziehung zwischen Variablen auszudrücken.
Regression ist ein überwachter Lernalgorithmus zum Vorhersagen und Modellieren numerischer kontinuierlicher Zufallsvariablen.
Beim Regellernen geht es darum, aus Trainingsdaten einen Satz von WENN-DANN-Regeln zu lernen, die aus atomaren Aussagen bestehen. Es handelt sich um eine Art des unüberwachten Lernens und wird oft als eine Art der Klassifizierung bezeichnet.
Der Stammknoten ist der erste Knoten in einer Baumdatenstruktur. Ein normaler Knoten kann einen übergeordneten Knoten und untergeordnete Knoten haben, aber da der Grundton der erste Knoten ist, hat er nur untergeordnete Knoten.
Particle Swarm Optimization (PSO), auch als Partikelschwarmoptimierung bekannt, ist ein Optimierungsalgorithmus, der auf der Schwarmintelligenztheorie basiert. Die Partikel im Schwarm schließen den Optimierungsprozess des Problems in jedem iterativen Suchvorgang ab.
Die Regel-Engine ist eine Weiterentwicklung der Inferenz-Engine und ist eine in die Anwendung eingebettete Komponente. Es trennt Geschäftsentscheidungen vom Anwendungscode und schreibt Geschäftsentscheidungen mithilfe vordefinierter semantischer Module.
Die Kernnorm ist die Summe der singulären Werte einer Matrix und wird verwendet, um den niedrigen Rang der Matrix einzuschränken.
Bei der Assoziationsanalyse handelt es sich um den Prozess, häufige Muster, Assoziationen, Korrelationen oder kausale Strukturen zwischen Mengen von Elementen oder Objekten in Transaktionsdaten, relationalen Daten oder anderen Informationsträgern zu finden. Methode der Assoziationsanalyse: Apriori-Algorithmus. Der Apriori-Algorithmus ist ein grundlegender Algorithmus zum Mining häufiger Elementsätze, die zum Generieren boolescher Assoziationsregeln erforderlich sind. Es macht […]
Individueller Lerner ist ein relatives Konzept, das den Lerner vor der Integration in das Ensemble-Lernen beschreibt. Entsprechend der Generierungsmethode einzelner Lernender können Ensemble-Lernmethoden in die folgenden zwei Kategorien unterteilt werden: Es gibt starke Abhängigkeiten und Serialisierungsmethoden müssen seriell generiert werden, wie z. B. Boosting; Es bestehen keine starken Abhängigkeiten und die Generierung kann gleichzeitig erfolgen.