Wiki
Wir haben Hunderte von verwandten Einträgen zusammengestellt, um Ihnen zu helfen, "künstliche Intelligenz" zu verstehen
Der Trainingsfehler ist der Fehler, der in den Trainingsdaten auftritt. ist der durchschnittliche Verlust des Modells anhand der Trainingsdaten.
Der maximale Erwartungswert ist ein Algorithmus zum Ermitteln von Maximum-Likelihood-Schätzungen oder Maximum-a-posteriori-Schätzungen von Parametern in einem Wahrscheinlichkeitsmodell, wobei das Wahrscheinlichkeitsmodell auf einer nicht beobachtbaren abhängigen Variable basiert. Der Maximum-Expectation-Algorithmus wird häufig im Bereich der Datenclusterung im maschinellen Lernen und in der Computervision verwendet. Die Berechnung erfolgt in zwei Schritten: Berechnen Sie den Erwartungswert E: Verwenden Sie die vorhandenen Schätzungen der verborgenen Variablen […]
Overfitting ist ein Phänomen des maschinellen Lernens. Es bezieht sich auf die Situation, in der einige Attribute in der Stichprobe gelernt werden, die für die Klassifizierung nicht benötigt werden. In diesem Fall ist das erlernte Entscheidungsbaummodell nicht das optimale Modell und führt zu einer Verringerung der Generalisierungsleistung.
Der erwartete Verlust ist die Vorhersagefähigkeit aller Stichproben und ein globales Konzept. Das empirische Risiko ist ein lokales Konzept, das nur die Vorhersagefähigkeit der Entscheidungsfunktion für Stichproben im Trainingsdatensatz darstellt. Empirisches Risiko und erwartetes Risiko Das empirische Risiko ist lokal. Basierend auf der Minimierung der Verlustfunktion aller Stichprobenpunkte im Trainingssatz ist das empirische Risiko lokal optimal und kann realistisch erreicht werden. […]
Naive Bayes Classifier (NBC) ist ein bedingter Wahrscheinlichkeitsklassifikator, der auf Naive Bayes basiert.
Naive Bayes bezieht sich auf die Vorhersage einer Klassifizierung, die ausschließlich auf der Wahrscheinlichkeit des Auftretens jeder Kategorie basiert. Es handelt sich um einen Klassifizierungsalgorithmus, der auf der Wahrscheinlichkeitstheorie basiert. Der Algorithmus basiert auf der Bayes'schen Formel.
Der gepaarte t-Test ist ein häufig verwendeter t-Test. Dabei handelt es sich um die Entnahme von zwei Gruppen von Proben unter unterschiedlichen Bedingungen aus derselben Population zur Analyse, um zu beurteilen, ob die unterschiedlichen Bedingungen einen signifikanten Einfluss haben. Unterschiedliche Bedingungen können sich auf unterschiedliche Speicherumgebungen, unterschiedliche Messsysteme usw. beziehen.
Unteranpassung bezeichnet eine Situation, in der das Modell nicht gut zu den Trainingsdaten passt. Es wird normalerweise verwendet, um das Lernen von Modellen und die Generalisierungsfähigkeit zu bewerten.
Beim Definieren eines Klassifikators geht es darum, auf der Grundlage vorhandener Daten ein Klassifizierungsmodell zu erstellen. Dieses Modell kann Datensätze in der Datenbank einer der angegebenen Kategorien zuordnen, um sie zur Datenvorhersage anzuwenden. Aufbau und Implementierung des Klassifikators Der Aufbau und die Implementierung des Klassifikators durchlaufen im Allgemeinen die folgenden Schritte: Auswahl der Proben (einschließlich positiver Proben und negativer Proben […]
Gewicht ist ein relativer Begriff und bezieht sich auf einen bestimmten Indikator. Die Gewichtung eines Indikators gibt die relative Bedeutung des Indikators in der Gesamtbewertung an.
Unterabtastung ist eine Methode, bei der einige Stichproben verworfen werden, um das Klassenungleichgewicht zu verringern. Das heißt, die Kategorien mit einer großen Anzahl von Stichproben (Mehrheitskategorien) im Trainingssatz werden entsprechend unterabgetastet.
Soft Margin ist eine Methode, die verwendet wird, um lineare, untrennbare Probleme zu lösen und die Auswirkungen von Rauschen zu reduzieren. Soft Margin ist die Praxis, einige Fehlerpunkte bei der Klassifizierung zuzulassen.
Eine radiale Basisfunktion (RBF) ist eine radialsymmetrische Skalarfunktion. Es wird normalerweise als die Entfernung von einem beliebigen Punkt X im Raum zu einem Mittelpunkt X definiert.C Eine monotone Funktion des Abstands zwischen ihnen. Es kann geschrieben werden als K ( || X – X C || ), ist seine Wirkung oft lokal, d. h. wenn X weit von X entfernt istC Der Funktionswert ist sehr klein.
Quantencomputing ist eine neue Art von Rechenmethode, die auf Quanteneffekten basiert. Das Grundprinzip besteht darin, Quantenbits als Informationskodierungs- und Speichereinheiten zu verwenden und Rechenaufgaben durch die kontrollierte Evolution einer großen Anzahl von Quantenbits zu erledigen. Vergleich zwischen Quantencomputing und herkömmlichem Computing (1) Informationsausdruck Beim herkömmlichen Computing ist die Einheit einer Computeroperation ein Verhältnis von 0 oder 1 […]
Ein Quantencomputer ist ein Gerät, das Quantenlogik verwendet, um allgemeine Berechnungen durchzuführen. Es handelt sich um eine spezielle Implementierungsform des Quantencomputings.
Ein Quantenneuronales Netzwerk (QNN) ist ein Netzwerk, das aus mehreren Quantenneuronen gemäß einer bestimmten topologischen Struktur besteht.
Robustheit bezieht sich auf die Fähigkeit eines Computersystems, Fehler während der Ausführung zu verarbeiten, und auf die Fähigkeit eines Algorithmus, bei Anomalien wie Eingabe und Berechnung weiterhin normal zu funktionieren.
Überwachtes Lernen ist eine Methode des maschinellen Lernens, bei der die Ausgabe mit der Eingabe in Beziehung gesetzt wird. Aus den Trainingsdaten kann ein Muster gelernt oder etabliert werden und auf Grundlage dieses Musters können neue Instanzen abgeleitet werden.
Strukturelles Risiko ist ein Kompromiss zwischen empirischem Risiko und erwartetem Risiko. Um das strukturelle Risiko zu erhalten, wird nach der empirischen Risikofunktion ein Regularisierungsterm (Strafterm) hinzugefügt.
Die strukturelle Risikominimierung (SRM) ist ein induktives Prinzip im maschinellen Lernen. Es wird häufig als Strategie verwendet, um Überanpassung zu verhindern.
Eine Squeeze-Funktion ist eine Funktion, die einen größeren Eingabebereich auf einen kleineren Bereich komprimiert. Wird oft als Aktivierungsfunktion verwendet.
Bei der gewichteten Abstimmung handelt es sich um ein Abstimmungsverfahren, bei dem Gewichtungen berücksichtigt werden.
Nearest Component Analysis (NCA) ist eine mit KNN (K Nearest Neighbors) verknüpfte Methode zum Lernen von Distanzmaßen und eine überwachte Lernmethode. Es wurde erstmals von Goldberger et al. vorgeschlagen. im Jahr 2004.
Die Intraklassen-Streumatrix stellt die Streuung jedes Stichprobenpunkts um den Mittelwert dar.