Wiki
Wir haben Hunderte von verwandten Einträgen zusammengestellt, um Ihnen zu helfen, "künstliche Intelligenz" zu verstehen
Der Viterbi-Algorithmus ist ein Algorithmus der dynamischen Programmierung.
Die VC-Dimension wird verwendet, um die Kapazität eines binären Klassifikators zu messen.
Ein Unterraum wird im Allgemeinen auch als linearer Unterraum oder Vektorunterraum bezeichnet, der eine Teilmenge eines Vektorraums ist.
Die Bedeutung des spärlichen Ausdrucks liegt in der Dimensionsreduzierung, und diese Dimensionsreduzierung beschränkt sich nicht nur auf die Platzersparnis. Die Abhängigkeit zwischen den Dimensionen des Merkmalsvektors wird nach der spärlichen Expression geringer und unabhängiger.
Das Stabilitäts-Plastizitäts-Dilemma ist sowohl in künstlichen als auch in biologischen neuronalen Systemen eine Einschränkung.
Spracherkennung ist eine Technologie, die es Computern ermöglicht, natürliche Sprache zu erkennen. Ziel ist es, dass Computer menschliche Sprachinhalte in entsprechenden Text umwandeln.
Simulated Annealing ist ein allgemeiner probabilistischer Algorithmus, der häufig verwendet wird, um innerhalb eines bestimmten Zeitraums eine nahezu optimale Lösung in einem großen Suchraum zu finden.
Die Ähnlichkeitsmessung dient der Abschätzung der Ähnlichkeit zwischen verschiedenen Proben und wird häufig als Kriterium bei Klassifizierungsproblemen verwendet.
Die Sigmoidfunktion ist eine allgemeine S-förmige Funktion, auch als S-förmige Wachstumskurve bekannt. Aufgrund ihrer monoton zunehmenden und invers monoton zunehmenden Eigenschaften wird die Sigmoid-Funktion häufig als Schwellenwertfunktion in neuronalen Netzwerken verwendet, um Variablen zwischen 0 und 1 abzubilden.
Unter unbemanntem Fahren versteht man hauptsächlich selbstfahrende Autos, auch fahrerlose Autos, computergesteuerte Autos oder mobile Roboter auf Rädern genannt. Es handelt sich um eine Art unbemanntes Bodenfahrzeug mit den Transportfähigkeiten herkömmlicher Autos.
Ein Hilbert-Raum mit reproduzierendem Kernel (RKHS) ist ein Hilbert-Raum mit einem reproduzierenden Kernel, der aus Funktionen besteht. Im Hilbert-Raum wird der „Kernel-Trick“ verwendet, um einen Datensatz in einen hochdimensionalen Raum abzubilden, der ein reproduzierbarer Kernel-Hilbert-Raum ist.
Bei der Regularisierung handelt es sich um den Prozess der Einführung zusätzlicher Informationen, um schlecht gestellte Probleme zu lösen oder eine Überanpassung zu verhindern.
Die gleichgerichtete lineare Einheit (ReLU), auch als lineare Gleichrichtungsfunktion bekannt, ist eine häufig verwendete Aktivierungsfunktion in künstlichen neuronalen Netzwerken und bezieht sich normalerweise auf nichtlineare Funktionen, die durch Rampenfunktionen und deren Varianten dargestellt werden.
Die Recall-Rate, auch als Rückrufrate bezeichnet, ist das Verhältnis der Anzahl der abgerufenen Samples zur Gesamtzahl der Samples und misst die Rückrufrate des Abrufsystems.
Das Quasi-Newton-Verfahren ist ein Optimierungsverfahren, das auf dem Newton-Verfahren basiert. Es wird hauptsächlich zum Lösen von Nullpunkt- oder Maximal- und Minimalwertproblemen nichtlinearer Gleichungen oder kontinuierlicher Funktionen verwendet.
Pseudo-Labeling (PL) ist der Vorgang, ein Modell zu trainieren, um unmarkierten Daten vorhergesagte Labels hinzuzufügen.
Die vorherige Wahrscheinlichkeit bezieht sich auf die Wahrscheinlichkeit, die auf der Grundlage früherer Erfahrungen und Analysen ermittelt wurde. Dies ist normalerweise die statistische Wahrscheinlichkeit.
Die Hauptkomponentenanalyse (PCA) ist eine Technik zum Analysieren und Vereinfachen eines Datensatzes. Es nutzt die Idee der Dimensionsreduzierung, um mehrere Indikatoren in weniger umfassende Indikatoren umzuwandeln. PCA ist die einfachste Methode zur Analyse multivariater statistischer Verteilungen mithilfe charakteristischer Größen.
Pre-Pruning ist eine Art Pruning-Algorithmus. Es bezieht sich auf den Beschneidungsvorgang vor der Generierung des Entscheidungsbaums.
Eine positiv definite Matrix ist eine symmetrische Matrix, bei der alle Eigenwerte größer als Null sind.
Die positive Klasse bezieht sich auf die erwartete Klasse in einem binären Klassifizierungsproblem. Die entsprechende Kategorie wird als negative Klasse (positive Klasse) bezeichnet.
Die einfachste Wahlmethode ist die relative Mehrheitswahl. Einfach ausgedrückt: Die Minderheit gehorcht der Mehrheit.
Leistungsmetriken sind Bewertungskriterien, mit denen die Generalisierungsfähigkeit eines Modells gemessen wird.
Ein Ordinalattribut ist ein Attribut, dessen mögliche Werte untereinander eine sinnvolle Reihenfolge oder Rangfolge aufweisen, die Unterschiede zwischen aufeinanderfolgenden Werten jedoch unbekannt sind. Es gibt eine Rangfolge und eine Unterscheidung zwischen groß und klein.