Wiki
Wir haben Hunderte von verwandten Einträgen zusammengestellt, um Ihnen zu helfen, "künstliche Intelligenz" zu verstehen
Das Karel-Puzzle ist eine Reihe von Problemen, bei denen es darum geht, die Aktionen eines Roboters in einer simulierten Umgebung durch Anweisungen zu steuern.
Fully Forward Mode (FFM) ist eine Methode zum Trainieren optischer neuronaler Netzwerke. Es wurde 2024 vom Forschungsteam des Akademikers Dai Qionghai und Professor Fang Lu von der Tsinghua-Universität vorgeschlagen. Das entsprechende Papier trägt den Titel „Vollständiger Vorwärtsmodus-Zug […]
Das Busy Beavers-Spiel ist ein theoretisches Informatikproblem, das 1962 vom Mathematiker Tibor Radó vorgeschlagen wurde.
Das Funktionsprinzip von RNN besteht darin, die Informationen vorheriger Zeitschritte durch den Zustand der verborgenen Schicht zu speichern, sodass die Ausgabe des Netzwerks von der aktuellen Eingabe und dem vorherigen Zustand abhängt.
ResNet löst effektiv die Probleme des Gradientenverschwindens und der Gradientenexplosion, die bei zunehmender Netzwerktiefe auftreten, indem es im Netzwerk Restverbindungen hinzufügt.
Adam ist ein Algorithmus zur Gradientenoptimierung erster Ordnung, der sich besonders für die Behandlung von Optimierungsproblemen mit großen Datenmengen und Parametern eignet.
Die Kerntechnologie des GPT-Modells ist die Transformer-Architektur, die durch den Self-Attention-Mechanismus effektiv Kontextinformationen erfasst.
Das Frequenzprinzip, kurz F-Prinzip, ist ein wichtiges Konzept im Bereich des Deep Learning. Es beschreibt die Eigenschaft, dass tiefe neuronale Netzwerke (DNNs) während des Trainings dazu neigen, sich der Zielfunktion von niedriger Frequenz zu hoher Frequenz anzupassen. Dieses Prinzip wurde von der Shanghai Jiao Tong University […]
Die Parameteraggregation beschreibt das Phänomen, dass während des Trainingsprozesses eines neuronalen Netzwerks die Modellparameter dazu neigen, sich in Richtung bestimmter Werte oder Richtungen zu sammeln.
Die zyklomatische Komplexität ist eine Softwaremetrik, mit der die Komplexität eines Programms gemessen wird.
Die Kernidee von Dropout besteht darin, während des Trainingsprozesses einige Neuronen im Netzwerk und ihre Verbindungen zufällig zu verwerfen (vorübergehend zu entfernen), um eine Überanpassung des Modells zu verhindern.
Graph Attention Networks (GATs) sind eine Art neuronales Netzwerk, das für graphisch strukturierte Daten entwickelt wurde. Sie wurden 2017 von Petar Veličković und seinen Kollegen vorgeschlagen. Das zugehörige Papier trägt den Titel „Graph Attention Networks (GATs)“.
Message Passing Neural Networks (MPNN) ist ein neuronales Netzwerk-Framework zur Verarbeitung graphisch strukturierter Daten. Es wurde von Gilmer et al. vorgeschlagen. im Jahr 2017. Das zugehörige Papier trägt den Titel „Neural Messa […]
Graph Convolutional Networks (GCN), Kipf und Welling veröffentlichten auf der ICLR-Konferenz 2017 ein Papier mit dem Titel „Semi-Supervised Classification“.
Die Gated Recurrent Unit (GRU) ist eine Variante des von Cho et al. vorgeschlagenen Recurrent Neural Network (RNN). im Jahr 2014. Das zugehörige Papier trägt den Titel „Empirical Evaluation of Gate […]
AlexNet ist ein tiefes Convolutional Neural Network (CNN), das 2012 von Alex Krizhevsky, Ilya Sutskever und Geoffrey Hinton vorgeschlagen und im selben Jahr im ImageNet-Bildklassifizierungswettbewerb verwendet wurde.
CART Decision Tree ist ein Entscheidungsbaumalgorithmus, der für Klassifizierungs- und Regressionsaufgaben verwendet werden kann.
Gradient Boosting ist ein Ensemble-Lernalgorithmus, der durch die Kombination mehrerer schwacher Vorhersagemodelle (normalerweise Entscheidungsbäume) ein starkes Vorhersagemodell erstellt.
LeNet-5 ist eine Pionierarbeit auf dem Gebiet des Deep Learning und der Convolutional Neural Networks, die den Grundstein für viele Schlüsselkonzepte des modernen Deep Learning legte, wie etwa Convolutional Layers, Pooling Layers und Fully Connected Layers.
Bei den Qualifikationsfragen geht es darum, wie alle Bedingungen oder Faktoren ermittelt werden können, die für die erfolgreiche Durchführung einer Aktion oder eines Ereignisses in einer sich ändernden Umgebung erforderlich sind.
ReAct schlägt ein allgemeines Paradigma vor, das Fortschritte im Denken und Handeln kombiniert, um Sprachmodellen die Lösung einer Vielzahl von Aufgaben im Bereich sprachliches Denken und Entscheidungsfindung zu ermöglichen.
Pre-training Once ist ein selbstüberwachtes Trainingsframework mit drei Zweigen, das elastische Studentenzweige einführt und in jedem Vortrainingsschritt zufällig Teilnetzwerke für das Training auswählt.
FlexAttention ist ein flexibler Aufmerksamkeitsmechanismus, der die Effizienz hochauflösender Vision-Language-Modelle verbessern soll.
FlashAttention ist ein effizienter und speicherfreundlicher Aufmerksamkeitsalgorithmus.