Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
Der semi-naive Bayes-Klassifikator ist eine Klassifizierungsmethode, die die gegenseitige Abhängigkeit einiger Attribute berücksichtigt. Es handelt sich um eine Relaxationsstrategie, wenn die gegenseitige Unabhängigkeit der Merkmale des naiven Bayes-Klassifikators schwer zu erfüllen ist.
Halbüberwachtes Lernen ist eine Lerntechnik zwischen überwachtem und unüberwachtem Lernen. Zum Lernen werden sowohl beschriftete als auch unbeschriftete Proben verwendet.
Ein Sattelpunkt ist ein stationärer Punkt, der kein lokaler Extrempunkt ist.
Der Versionsraum ist eine Teilmenge aller Hypothesen beim Konzeptlernen, die mit einem bekannten Datensatz übereinstimmen, und wird häufig verwendet, um Inhalte zu konvergieren.
Bei der Wortsinn-Disambiguierung (WSD) handelt es sich um eine semantische Disambiguierung auf Wortebene.
Das Residualnetzwerk (ResNet) basiert auf einem einfachen Netzwerk, in das Abkürzungsverbindungen eingefügt werden, um das Netzwerk in die entsprechende Residualversion umzuwandeln. Das Residuennetzwerk passt nicht direkt zum Ziel, sondern zum Residuum.
Der Darstellungssatz ist ein Theorem im statistischen Lernen, das besagt, dass das Minimum einer regulierten Risikofunktion, die auf einem Hilbert-Raum mit reproduzierendem Kernel definiert ist, als lineare Kombination der Eingabepunkte im Trainingssatz dargestellt werden kann.
Die halbüberwachte Support Vector Machine (S3VM) ist eine Verallgemeinerung der Support Vector Machine im halbüberwachten Lernen.
Word Embedding ist ein allgemeiner Begriff für Sprachmodelle und Repräsentationslerntechniken in der natürlichen Sprachverarbeitung (NLP).
Bei der Wortsinn-Disambiguierung (WSD) handelt es sich um eine semantische Disambiguierung auf Wortebene. Es handelt sich um ein ungelöstes Problem in der Verarbeitung natürlicher Sprache und der Ontologie. Mehrdeutigkeit und Eindeutigkeitsbeseitigung sind die Kernprobleme beim Verstehen natürlicher Sprache. Auf den Ebenen der Wortbedeutung, der Satzbedeutung und der Absatzbedeutung kommt es zu Phänomenen, bei denen sich die Semantik der Sprache je nach Kontext unterscheidet. Unter Disambiguierung versteht man den Prozess der kontextbasierten Bestimmung der Semantik eines Objekts.
Tokenisierung, auch als lexikalische Analyse bezeichnet, ist der Prozess der Umwandlung von Zeichen (beispielsweise in einem Computerprogramm oder einer Webseite) in Token (Zeichenfolgen mit zugewiesenen und daher identifizierten Bedeutungen).
Bei der Variationsinferenz wird eine bekannte Verteilung verwendet, um sie an die von uns benötigte Verteilung anzupassen, was sich jedoch nur schwer in einer Formel ausdrücken lässt.
Ein Referenzmodell ist ein Modell, das als Maßstab und Vergleich dient. In der Definition der Organisation zur Förderung strukturierter Informationsstandards wird es verwendet, um die wichtigen Beziehungen zwischen Entitäten in einer bestimmten Umgebung zu verstehen und einen allgemeinen Standard oder Spezifikationsrahmen zur Unterstützung dieser Umgebung zu entwickeln. Konzeptzusammenfassung: Referenzmodelle werden verwendet, um Informationen über eine Umgebung bereitzustellen und zu beschreiben […]
Bei der Neugewichtungsmethode wird in jeder Runde des Trainingsprozesses jeder Trainingsstichprobe entsprechend der Stichprobenverteilung ein neues Gewicht zugewiesen.
Unter Randverteilung versteht man in der Wahrscheinlichkeitstheorie und Statistik die Wahrscheinlichkeitsverteilung nur einiger Variablen unter mehrdimensionalen Zufallsvariablen. Definitionen Angenommen, es gibt eine Wahrscheinlichkeitsverteilung, die mit zwei Variablen verknüpft ist: $latex P(x, y) $. Die Randverteilung in Bezug auf eine der Variablen ist dann die bedingte Wahrscheinlichkeitsverteilung bei Angabe der anderen Variablen: $lat […]
Marginalisierung ist eine Methode zum Entdecken einer Variable auf der Grundlage einer anderen Variable. Es ermittelt den Grenzbeitrag einer anderen Variablen durch Summierung der möglichen Werte der Variablen. Diese Definition ist relativ abstrakt und wird im Folgenden anhand relevanter Fälle erläutert. Angenommen, wir müssen den Einfluss des Wetters auf den Glücksindex kennen, können wir ihn durch P (Glück | Wetter) darstellen, d. h. bei gegebener Wetterart […]
Hierarchisches Clustering ist eine Sammlung von Algorithmen, die verschachtelte Cluster bilden, indem sie diese kontinuierlich von unten nach oben zusammenführen oder von oben nach unten aufteilen. Diese hierarchische Klasse wird durch ein „Dendrogramm“ dargestellt und der Agglomerative Clustering-Algorithmus ist einer davon. Beim hierarchischen Clustering wird versucht, Daten auf verschiedenen „Ebenen“ zu clustern […]
Die Spieltheorie, auch als Strategietheorie, Turniertheorie usw. bekannt, ist nicht nur ein neuer Zweig der modernen Mathematik, sondern auch eine wichtige Disziplin der Operationsforschung. Der Forschungsschwerpunkt liegt auf der Interaktion zwischen Anreizstrukturen, wobei das vorhergesagte und tatsächliche Verhalten von Einzelpersonen im Spiel berücksichtigt und entsprechende Optimierungsstrategien untersucht werden. Unter Spielverhalten versteht man Verhalten, das wettbewerbsorientierter oder gegnerischer Natur ist. Bei einem solchen Verhalten […]
Die Extreme Learning Machine ist ein neuronales Netzwerkmodell im Bereich des maschinellen Lernens, mit dem sich Feedforward-Neuronale Netzwerke mit einer einzelnen verborgenen Schicht lösen lassen. Anders als bei herkömmlichen Feedforward-Neuralnetzwerken (wie etwa BP-Neuralnetzwerken), bei denen eine große Anzahl von Trainingsparametern manuell eingestellt werden muss, muss der Extreme-Learning-Algorithmus nur die Netzwerkstruktur einstellen, ohne andere Parameter einzustellen, sodass er einfach und leicht zu […] ist.
Die Fehlerrate bezeichnet den Anteil der Vorhersagefehler in der Vorhersage. Die Berechnungsformel lautet im Allgemeinen: 1 – Genauigkeit (%) Das trainierte Modell kann im Allgemeinen verwendet werden, um die Fehlerrate eines Modells in einem Datensatz zu messen. Drei Zahlen sind wichtig: Bayes Optimal Error: Der ideale […]
Präzision ist ein Maß, das bei der Informationsbeschaffung und statistischen Klassifizierung verwendet wird. Bezieht sich auf das Verhältnis der extrahierten korrekten Proben zur Anzahl der extrahierten Proben.
Beim Repräsentationslernen, auch als Darstellungslernen bekannt, wird maschinelles Lernen eingesetzt, um automatisch den vektorisierten Ausdruck jeder Entität oder Beziehung zu erhalten, sodass beim Erstellen von Klassifikatoren oder anderen prädiktiven Variablen die Extraktion nützlicher Informationen einfacher ist.
Beim Resampling werden wiederholte Stichproben aus der ursprünglichen Datenstichprobe extrahiert. Dies ist eine nichtparametrische Methode der statistischen Inferenz. Das heißt, dass beim Resampling nicht die allgemeine Verteilung verwendet wird, um den Wert der Wahrscheinlichkeit p anzunähern.
Residual Mapping ist die entsprechende Beziehung, auf deren Grundlage das Residualnetzwerk erstellt wird. Die übliche Form ist H ( x ) = F ( x ) + x , wobei F ( x ) die Residuenfunktion ist.
Der semi-naive Bayes-Klassifikator ist eine Klassifizierungsmethode, die die gegenseitige Abhängigkeit einiger Attribute berücksichtigt. Es handelt sich um eine Relaxationsstrategie, wenn die gegenseitige Unabhängigkeit der Merkmale des naiven Bayes-Klassifikators schwer zu erfüllen ist.
Halbüberwachtes Lernen ist eine Lerntechnik zwischen überwachtem und unüberwachtem Lernen. Zum Lernen werden sowohl beschriftete als auch unbeschriftete Proben verwendet.
Ein Sattelpunkt ist ein stationärer Punkt, der kein lokaler Extrempunkt ist.
Der Versionsraum ist eine Teilmenge aller Hypothesen beim Konzeptlernen, die mit einem bekannten Datensatz übereinstimmen, und wird häufig verwendet, um Inhalte zu konvergieren.
Bei der Wortsinn-Disambiguierung (WSD) handelt es sich um eine semantische Disambiguierung auf Wortebene.
Das Residualnetzwerk (ResNet) basiert auf einem einfachen Netzwerk, in das Abkürzungsverbindungen eingefügt werden, um das Netzwerk in die entsprechende Residualversion umzuwandeln. Das Residuennetzwerk passt nicht direkt zum Ziel, sondern zum Residuum.
Der Darstellungssatz ist ein Theorem im statistischen Lernen, das besagt, dass das Minimum einer regulierten Risikofunktion, die auf einem Hilbert-Raum mit reproduzierendem Kernel definiert ist, als lineare Kombination der Eingabepunkte im Trainingssatz dargestellt werden kann.
Die halbüberwachte Support Vector Machine (S3VM) ist eine Verallgemeinerung der Support Vector Machine im halbüberwachten Lernen.
Word Embedding ist ein allgemeiner Begriff für Sprachmodelle und Repräsentationslerntechniken in der natürlichen Sprachverarbeitung (NLP).
Bei der Wortsinn-Disambiguierung (WSD) handelt es sich um eine semantische Disambiguierung auf Wortebene. Es handelt sich um ein ungelöstes Problem in der Verarbeitung natürlicher Sprache und der Ontologie. Mehrdeutigkeit und Eindeutigkeitsbeseitigung sind die Kernprobleme beim Verstehen natürlicher Sprache. Auf den Ebenen der Wortbedeutung, der Satzbedeutung und der Absatzbedeutung kommt es zu Phänomenen, bei denen sich die Semantik der Sprache je nach Kontext unterscheidet. Unter Disambiguierung versteht man den Prozess der kontextbasierten Bestimmung der Semantik eines Objekts.
Tokenisierung, auch als lexikalische Analyse bezeichnet, ist der Prozess der Umwandlung von Zeichen (beispielsweise in einem Computerprogramm oder einer Webseite) in Token (Zeichenfolgen mit zugewiesenen und daher identifizierten Bedeutungen).
Bei der Variationsinferenz wird eine bekannte Verteilung verwendet, um sie an die von uns benötigte Verteilung anzupassen, was sich jedoch nur schwer in einer Formel ausdrücken lässt.
Ein Referenzmodell ist ein Modell, das als Maßstab und Vergleich dient. In der Definition der Organisation zur Förderung strukturierter Informationsstandards wird es verwendet, um die wichtigen Beziehungen zwischen Entitäten in einer bestimmten Umgebung zu verstehen und einen allgemeinen Standard oder Spezifikationsrahmen zur Unterstützung dieser Umgebung zu entwickeln. Konzeptzusammenfassung: Referenzmodelle werden verwendet, um Informationen über eine Umgebung bereitzustellen und zu beschreiben […]
Bei der Neugewichtungsmethode wird in jeder Runde des Trainingsprozesses jeder Trainingsstichprobe entsprechend der Stichprobenverteilung ein neues Gewicht zugewiesen.
Unter Randverteilung versteht man in der Wahrscheinlichkeitstheorie und Statistik die Wahrscheinlichkeitsverteilung nur einiger Variablen unter mehrdimensionalen Zufallsvariablen. Definitionen Angenommen, es gibt eine Wahrscheinlichkeitsverteilung, die mit zwei Variablen verknüpft ist: $latex P(x, y) $. Die Randverteilung in Bezug auf eine der Variablen ist dann die bedingte Wahrscheinlichkeitsverteilung bei Angabe der anderen Variablen: $lat […]
Marginalisierung ist eine Methode zum Entdecken einer Variable auf der Grundlage einer anderen Variable. Es ermittelt den Grenzbeitrag einer anderen Variablen durch Summierung der möglichen Werte der Variablen. Diese Definition ist relativ abstrakt und wird im Folgenden anhand relevanter Fälle erläutert. Angenommen, wir müssen den Einfluss des Wetters auf den Glücksindex kennen, können wir ihn durch P (Glück | Wetter) darstellen, d. h. bei gegebener Wetterart […]
Hierarchisches Clustering ist eine Sammlung von Algorithmen, die verschachtelte Cluster bilden, indem sie diese kontinuierlich von unten nach oben zusammenführen oder von oben nach unten aufteilen. Diese hierarchische Klasse wird durch ein „Dendrogramm“ dargestellt und der Agglomerative Clustering-Algorithmus ist einer davon. Beim hierarchischen Clustering wird versucht, Daten auf verschiedenen „Ebenen“ zu clustern […]
Die Spieltheorie, auch als Strategietheorie, Turniertheorie usw. bekannt, ist nicht nur ein neuer Zweig der modernen Mathematik, sondern auch eine wichtige Disziplin der Operationsforschung. Der Forschungsschwerpunkt liegt auf der Interaktion zwischen Anreizstrukturen, wobei das vorhergesagte und tatsächliche Verhalten von Einzelpersonen im Spiel berücksichtigt und entsprechende Optimierungsstrategien untersucht werden. Unter Spielverhalten versteht man Verhalten, das wettbewerbsorientierter oder gegnerischer Natur ist. Bei einem solchen Verhalten […]
Die Extreme Learning Machine ist ein neuronales Netzwerkmodell im Bereich des maschinellen Lernens, mit dem sich Feedforward-Neuronale Netzwerke mit einer einzelnen verborgenen Schicht lösen lassen. Anders als bei herkömmlichen Feedforward-Neuralnetzwerken (wie etwa BP-Neuralnetzwerken), bei denen eine große Anzahl von Trainingsparametern manuell eingestellt werden muss, muss der Extreme-Learning-Algorithmus nur die Netzwerkstruktur einstellen, ohne andere Parameter einzustellen, sodass er einfach und leicht zu […] ist.
Die Fehlerrate bezeichnet den Anteil der Vorhersagefehler in der Vorhersage. Die Berechnungsformel lautet im Allgemeinen: 1 – Genauigkeit (%) Das trainierte Modell kann im Allgemeinen verwendet werden, um die Fehlerrate eines Modells in einem Datensatz zu messen. Drei Zahlen sind wichtig: Bayes Optimal Error: Der ideale […]
Präzision ist ein Maß, das bei der Informationsbeschaffung und statistischen Klassifizierung verwendet wird. Bezieht sich auf das Verhältnis der extrahierten korrekten Proben zur Anzahl der extrahierten Proben.
Beim Repräsentationslernen, auch als Darstellungslernen bekannt, wird maschinelles Lernen eingesetzt, um automatisch den vektorisierten Ausdruck jeder Entität oder Beziehung zu erhalten, sodass beim Erstellen von Klassifikatoren oder anderen prädiktiven Variablen die Extraktion nützlicher Informationen einfacher ist.
Beim Resampling werden wiederholte Stichproben aus der ursprünglichen Datenstichprobe extrahiert. Dies ist eine nichtparametrische Methode der statistischen Inferenz. Das heißt, dass beim Resampling nicht die allgemeine Verteilung verwendet wird, um den Wert der Wahrscheinlichkeit p anzunähern.
Residual Mapping ist die entsprechende Beziehung, auf deren Grundlage das Residualnetzwerk erstellt wird. Die übliche Form ist H ( x ) = F ( x ) + x , wobei F ( x ) die Residuenfunktion ist.