Wiki
Wir haben Hunderte von verwandten Einträgen zusammengestellt, um Ihnen zu helfen, "künstliche Intelligenz" zu verstehen
Bei der Wortsinn-Disambiguierung (WSD) handelt es sich um eine semantische Disambiguierung auf Wortebene.
Das Residualnetzwerk (ResNet) basiert auf einem einfachen Netzwerk, in das Abkürzungsverbindungen eingefügt werden, um das Netzwerk in die entsprechende Residualversion umzuwandeln. Das Residuennetzwerk passt nicht direkt zum Ziel, sondern zum Residuum.
Der Darstellungssatz ist ein Theorem im statistischen Lernen, das besagt, dass das Minimum einer regulierten Risikofunktion, die auf einem Hilbert-Raum mit reproduzierendem Kernel definiert ist, als lineare Kombination der Eingabepunkte im Trainingssatz dargestellt werden kann.
Die halbüberwachte Support Vector Machine (S3VM) ist eine Verallgemeinerung der Support Vector Machine im halbüberwachten Lernen.
Word Embedding ist ein allgemeiner Begriff für Sprachmodelle und Repräsentationslerntechniken in der natürlichen Sprachverarbeitung (NLP).
Bei der Wortsinn-Disambiguierung (WSD) handelt es sich um eine semantische Disambiguierung auf Wortebene. Es handelt sich um ein ungelöstes Problem in der Verarbeitung natürlicher Sprache und der Ontologie. Mehrdeutigkeit und Eindeutigkeitsbeseitigung sind die Kernprobleme beim Verstehen natürlicher Sprache. Auf den Ebenen der Wortbedeutung, der Satzbedeutung und der Absatzbedeutung kommt es zu Phänomenen, bei denen sich die Semantik der Sprache je nach Kontext unterscheidet. Unter Disambiguierung versteht man den Prozess der kontextbasierten Bestimmung der Semantik eines Objekts.
Tokenisierung, auch als lexikalische Analyse bezeichnet, ist der Prozess der Umwandlung von Zeichen (beispielsweise in einem Computerprogramm oder einer Webseite) in Token (Zeichenfolgen mit zugewiesenen und daher identifizierten Bedeutungen).
Bei der Variationsinferenz wird eine bekannte Verteilung verwendet, um sie an die von uns benötigte Verteilung anzupassen, was sich jedoch nur schwer in einer Formel ausdrücken lässt.
Ein Referenzmodell ist ein Modell, das als Maßstab und Vergleich dient. In der Definition der Organisation zur Förderung strukturierter Informationsstandards wird es verwendet, um die wichtigen Beziehungen zwischen Entitäten in einer bestimmten Umgebung zu verstehen und einen allgemeinen Standard oder Spezifikationsrahmen zur Unterstützung dieser Umgebung zu entwickeln. Konzeptzusammenfassung: Referenzmodelle werden verwendet, um Informationen über eine Umgebung bereitzustellen und zu beschreiben […]
Bei der Neugewichtungsmethode wird in jeder Runde des Trainingsprozesses jeder Trainingsstichprobe entsprechend der Stichprobenverteilung ein neues Gewicht zugewiesen.
Unter Randverteilung versteht man in der Wahrscheinlichkeitstheorie und Statistik die Wahrscheinlichkeitsverteilung nur einiger Variablen unter mehrdimensionalen Zufallsvariablen. Definitionen Angenommen, es gibt eine Wahrscheinlichkeitsverteilung, die mit zwei Variablen verknüpft ist: $latex P(x, y) $. Die Randverteilung in Bezug auf eine der Variablen ist dann die bedingte Wahrscheinlichkeitsverteilung bei Angabe der anderen Variablen: $lat […]
Marginalisierung ist eine Methode zum Entdecken einer Variable auf der Grundlage einer anderen Variable. Es ermittelt den Grenzbeitrag einer anderen Variablen durch Summierung der möglichen Werte der Variablen. Diese Definition ist relativ abstrakt und wird im Folgenden anhand relevanter Fälle erläutert. Angenommen, wir müssen den Einfluss des Wetters auf den Glücksindex kennen, können wir ihn durch P (Glück | Wetter) darstellen, d. h. bei gegebener Wetterart […]
Hierarchisches Clustering ist eine Sammlung von Algorithmen, die verschachtelte Cluster bilden, indem sie diese kontinuierlich von unten nach oben zusammenführen oder von oben nach unten aufteilen. Diese hierarchische Klasse wird durch ein „Dendrogramm“ dargestellt und der Agglomerative Clustering-Algorithmus ist einer davon. Beim hierarchischen Clustering wird versucht, Daten auf verschiedenen „Ebenen“ zu clustern […]
Die Spieltheorie, auch als Strategietheorie, Turniertheorie usw. bekannt, ist nicht nur ein neuer Zweig der modernen Mathematik, sondern auch eine wichtige Disziplin der Operationsforschung. Der Forschungsschwerpunkt liegt auf der Interaktion zwischen Anreizstrukturen, wobei das vorhergesagte und tatsächliche Verhalten von Einzelpersonen im Spiel berücksichtigt und entsprechende Optimierungsstrategien untersucht werden. Unter Spielverhalten versteht man Verhalten, das wettbewerbsorientierter oder gegnerischer Natur ist. Bei einem solchen Verhalten […]
Die Extreme Learning Machine ist ein neuronales Netzwerkmodell im Bereich des maschinellen Lernens, mit dem sich Feedforward-Neuronale Netzwerke mit einer einzelnen verborgenen Schicht lösen lassen. Anders als bei herkömmlichen Feedforward-Neuralnetzwerken (wie etwa BP-Neuralnetzwerken), bei denen eine große Anzahl von Trainingsparametern manuell eingestellt werden muss, muss der Extreme-Learning-Algorithmus nur die Netzwerkstruktur einstellen, ohne andere Parameter einzustellen, sodass er einfach und leicht zu […] ist.
Die Fehlerrate bezeichnet den Anteil der Vorhersagefehler in der Vorhersage. Die Berechnungsformel lautet im Allgemeinen: 1 – Genauigkeit (%) Das trainierte Modell kann im Allgemeinen verwendet werden, um die Fehlerrate eines Modells in einem Datensatz zu messen. Drei Zahlen sind wichtig: Bayes Optimal Error: Der ideale […]
Präzision ist ein Maß, das bei der Informationsbeschaffung und statistischen Klassifizierung verwendet wird. Bezieht sich auf das Verhältnis der extrahierten korrekten Proben zur Anzahl der extrahierten Proben.
Beim Repräsentationslernen, auch als Darstellungslernen bekannt, wird maschinelles Lernen eingesetzt, um automatisch den vektorisierten Ausdruck jeder Entität oder Beziehung zu erhalten, sodass beim Erstellen von Klassifikatoren oder anderen prädiktiven Variablen die Extraktion nützlicher Informationen einfacher ist.
Beim Resampling werden wiederholte Stichproben aus der ursprünglichen Datenstichprobe extrahiert. Dies ist eine nichtparametrische Methode der statistischen Inferenz. Das heißt, dass beim Resampling nicht die allgemeine Verteilung verwendet wird, um den Wert der Wahrscheinlichkeit p anzunähern.
Residual Mapping ist die entsprechende Beziehung, auf deren Grundlage das Residualnetzwerk erstellt wird. Die übliche Form ist H ( x ) = F ( x ) + x , wobei F ( x ) die Residuenfunktion ist.
Pooling, auch räumliches Pooling genannt, ist eine Methode zum Extrahieren von Merkmalen in Convolutional Neural Networks.
Computer Vision ist eine Wissenschaft, die sich damit beschäftigt, wie man Maschinen zum „Sehen“ bringt. Konkret geht es dabei um den Einsatz von Kameras und Computern als Ersatz für das menschliche Auge bei der Identifizierung, Verfolgung und Messung von Zielen sowie um den Einsatz von Computern zur Bildverarbeitung, sodass diese besser für die Beobachtung durch das menschliche Auge oder die Übertragung an Erkennungsgeräte geeignet sind. Definition Computer Vision ist die Verwendung von Computern und verwandten […]
Die Computerlinguistik ist eine Disziplin, die mathematische Modelle zur Analyse und Verarbeitung natürlicher Sprachen verwendet und Programme auf Computern einsetzt, um den Analyse- und Verarbeitungsprozess durchzuführen. Dadurch wird das Ziel erreicht, mithilfe von Maschinen einen Teil oder die gesamten Sprachfähigkeiten einer Person zu simulieren. Grundlegende Inhalte Die Computerlinguistik lässt sich je nach Art und Komplexität ihrer Arbeit in die folgenden drei Kategorien unterteilen: Automatische Bearbeitung: […]
Die Eigenzerlegung ist eine Methode zum Zerlegen einer Matrix in das Produkt von Matrizen, die durch Eigenwerte und Eigenvektoren dargestellt werden. Allerdings können nur diagonalisierbare Matrizen eine Eigenzerlegung durchführen. Der Eigenwert kann als Skalierungsverhältnis der Länge des Eigenvektors bei linearer Transformation betrachtet werden. Wenn der Eigenwert positiv ist, bedeutet dies, dass $latex v $ linear transformiert wurde […]