Wiki
Wir haben Hunderte von verwandten Einträgen zusammengestellt, um Ihnen zu helfen, "künstliche Intelligenz" zu verstehen
Das Testen von Hypothesen ist eine Methode zum Testen statistischer Hypothesen, die hauptsächlich in der Inferenzstatistik verwendet wird. Dabei ist eine „statistische Hypothese“ eine wissenschaftliche Hypothese, die hauptsächlich durch Beobachtung des Modells von Zufallsvariablen getestet wird. Unter der Voraussetzung, dass die unbekannten Parameter geschätzt werden können, können anhand der Ergebnisse entsprechende Rückschlüsse auf die unbekannten Parameterwerte gezogen werden. In der Statistik ist eine Annahme über einen Parameter eine Annahme über einen oder mehrere […]
Ensemble-Lernen ist die Idee, mehrere Modelle zu einem hochpräzisen Modell zu kombinieren. Es wird hauptsächlich im Bereich des maschinellen Lernens verwendet. Es handelt sich nicht um einen einzelnen Algorithmus für maschinelles Lernen, sondern die Lernaufgabe wird durch die Erstellung und Kombination mehrerer Lerner erledigt. Ensemble-Lernen kann für Klassifizierungsprobleme, Regressionsprobleme, Merkmalsauswahl, Ausreißererkennung usw. verwendet werden. Man kann sagen, dass alle maschinellen Lernverfahren […]
Die fehlerkorrigierende Ausgabecodierungsmethode ECOC kann Mehrklassenprobleme in mehrere Zweiklassenprobleme umwandeln, und der fehlerkorrigierende Ausgabecode selbst verfügt über Fehlerkorrekturfunktionen, die die Vorhersagegenauigkeit von überwachten Lernalgorithmen verbessern können. Die Ausgabekategoriecodierung kann in zwei Kategorien unterteilt werden, d. h. jede Kategorie entspricht einer binären Bitfolge der Länge n, die insgesamt m Codewörter bildet, die […]
Das empirische Risiko zeigt die Fähigkeit des Modells, Trainingsbeispiele vorherzusagen. Es wird ermittelt, indem die Verlustfunktion einmal für alle Trainingsbeispiele berechnet und dann der Durchschnitt akkumuliert wird. Die Verlustfunktion ist die Grundlage des erwarteten Risikos, des empirischen Risikos und des strukturellen Risikos. Die Verlustfunktion gilt für eine einzelne spezifische Stichprobe und stellt die Lücke zwischen dem vom Modell vorhergesagten Wert und dem wahren Wert dar. […]
K-Means-Clustering ist eine Methode zur Vektorquantisierung, die früher in der Signalverarbeitung verwendet wurde. Derzeit wird es hauptsächlich als Clusteranalysemethode im Bereich Data Mining verwendet. Der Zweck der K-Means-Clusterbildung besteht darin, n Punkte in k Cluster aufzuteilen, sodass jeder Punkt zu dem Cluster gehört, der dem nächsten Mittelwert entspricht, und diesen als Clusterkriterium zu verwenden. Diese Art von Problem [...]
Die Margin-Theorie ist ein Konzept in Support Vector Machines, wobei sich der Margin auf den Mindestabstand zwischen zwei durch eine Hyperebene geteilten Stichprobentypen bezieht. Mithilfe der Margin-Theorie lässt sich erklären, dass bei einem Trainingsfehler des AdaBoost-Algorithmus von 0 die Generalisierungsleistung des Modells durch fortgesetztes Training weiter verbessert werden kann. Lassen Sie x und y die Eingabe darstellen und […]
Das Perzeptron ist ein binäres lineares Klassifizierungsmodell, das als einfachste Form eines Feedforward-Neuralnetzwerks angesehen werden kann und 1957 von Frank Rosenblatt erfunden wurde. Seine Eingabe ist der Merkmalsvektor der Instanz und seine Ausgabe ist die Kategorie der Instanz.
Die International Conference on Neural Information Processing Systems (NIPS) ist eine hochkarätige Konferenz im Bereich des maschinellen Lernens und des neuronalen Computing, die jedes Jahr im Dezember von der NIPS Foundation veranstaltet wird.
Bei der Normalisierung werden Daten einem bestimmten Bereich zugeordnet, um die Dimensionen und Dimensionseinheiten von Daten unterschiedlicher Dimensionen zu entfernen und so die Vergleichbarkeit zwischen verschiedenen Datenindikatoren zu verbessern.
Die Proximale Gradientenmethode (PGD) ist ein spezielles Gradientenabstiegsverfahren, das hauptsächlich zur Lösung von Optimierungsproblemen mit nicht differenzierbaren Zielfunktionen verwendet wird.
Mit „Post-Pruning“ ist der Beschneidungsvorgang gemeint, der nach der Generierung des Entscheidungsbaums durchgeführt wird.
Ein probabilistisches grafisches Modell ist ein probabilistisches Modell, das eine Graphstruktur verwendet, um die Beziehung zwischen Variablen auszudrücken.
Regression ist ein überwachter Lernalgorithmus zum Vorhersagen und Modellieren numerischer kontinuierlicher Zufallsvariablen.
Beim Regellernen geht es darum, aus Trainingsdaten einen Satz von WENN-DANN-Regeln zu lernen, die aus atomaren Aussagen bestehen. Es handelt sich um eine Art des unüberwachten Lernens und wird oft als eine Art der Klassifizierung bezeichnet.
Der Stammknoten ist der erste Knoten in einer Baumdatenstruktur. Ein normaler Knoten kann einen übergeordneten Knoten und untergeordnete Knoten haben, aber da der Grundton der erste Knoten ist, hat er nur untergeordnete Knoten.
Particle Swarm Optimization (PSO), auch als Partikelschwarmoptimierung bekannt, ist ein Optimierungsalgorithmus, der auf der Schwarmintelligenztheorie basiert. Die Partikel im Schwarm schließen den Optimierungsprozess des Problems in jedem iterativen Suchvorgang ab.
Die Regel-Engine ist eine Weiterentwicklung der Inferenz-Engine und ist eine in die Anwendung eingebettete Komponente. Es trennt Geschäftsentscheidungen vom Anwendungscode und schreibt Geschäftsentscheidungen mithilfe vordefinierter semantischer Module.
Die Kernnorm ist die Summe der singulären Werte einer Matrix und wird verwendet, um den niedrigen Rang der Matrix einzuschränken.
Bei der Assoziationsanalyse handelt es sich um den Prozess, häufige Muster, Assoziationen, Korrelationen oder kausale Strukturen zwischen Mengen von Elementen oder Objekten in Transaktionsdaten, relationalen Daten oder anderen Informationsträgern zu finden. Methode der Assoziationsanalyse: Apriori-Algorithmus. Der Apriori-Algorithmus ist ein grundlegender Algorithmus zum Mining häufiger Elementsätze, die zum Generieren boolescher Assoziationsregeln erforderlich sind. Es macht […]
Individueller Lerner ist ein relatives Konzept, das den Lerner vor der Integration in das Ensemble-Lernen beschreibt. Entsprechend der Generierungsmethode einzelner Lernender können Ensemble-Lernmethoden in die folgenden zwei Kategorien unterteilt werden: Es gibt starke Abhängigkeiten und Serialisierungsmethoden müssen seriell generiert werden, wie z. B. Boosting; Es bestehen keine starken Abhängigkeiten und die Generierung kann gleichzeitig erfolgen.
Induktion ist ein Denkprozess, bei dem aus einer Reihe spezifischer Fakten allgemeine Prinzipien verallgemeinert werden. Mathematische Induktion bezeichnet eine Denkweise, bei der allgemeine Konzepte, Prinzipien oder Schlussfolgerungen aus mehreren Dingen verallgemeinert werden. Die Induktion kann in vollständige und unvollständige Induktion unterteilt werden: Vollständige Induktion: schließt alle Objekte dieses Typs ein und lässt so eine Schlussfolgerung über diesen Objekttyp zu.
Induktives Lernen ist eine Methode des maschinellen Lernens, die häufig für symbolisches Lernen verwendet wird. Es fasst im Wesentlichen eine Konzeptbeschreibung aus einer Reihe bekannter positiver und negativer Beispiele zu einem Konzept zusammen. Durch induktives Lernen können neue Konzepte erworben, neue Regeln erstellt und neue Theorien entdeckt werden. Seine allgemeinen Operationen sind Generalisierung und Spezialisierung, wobei sich Generalisierung auf die Erweiterung von […] bezieht.
Der Cumulative Error Backpropagation-Algorithmus (ABP-Algorithmus) ist eine Variante des Standard-Backpropagation-Algorithmus (BP). Wenn eine Aktualisierungsregel basierend auf der Minimierung des kumulativen Fehlers abgeleitet wird, erhält man den Algorithmus zur Rückausbreitung kumulativer Fehler.
Die Hinge-Loss-Funktion hat die Form eines Scharniers, was auch der Ursprung ihres Namens ist. Diese Verlustfunktion existiert hauptsächlich in Support Vector Machines. Es ist nicht nur eine korrekte Klassifizierung erforderlich, sondern auch, dass der Verlust nur dann 0 ist, wenn das Vertrauen hoch genug ist. Das heißt, die Scharnierverlustfunktion stellt höhere Anforderungen an das Lernen. Die Formel der Scharnierverlustfunktion lautet L ( y ( w * x […]