Command Palette
Search for a command to run...
Wiki
Nous avons compilé des centaines d'entrées connexes pour vous aider à comprendre "l'intelligence artificielle"
Le puzzle Karel est un ensemble de problèmes qui impliquent de contrôler les actions d'un robot dans un environnement simulé à l'aide d'instructions.
Le mode entièrement direct (FFM) est une méthode de formation des réseaux neuronaux optiques. Il a été proposé par l'équipe de recherche de l'académicien Dai Qionghai et du professeur Fang Lu de l'université Tsinghua en 2024. L'article pertinent est « Train en mode entièrement avant […]
Le jeu Busy Beavers est un problème informatique théorique proposé en 1962 par le mathématicien Tibor Radó.
Le principe de fonctionnement du RNN est de stocker les informations de l'étape temporelle précédente via l'état de la couche cachée, de sorte que la sortie du réseau dépend de l'entrée actuelle et de l'état précédent.
ResNet résout efficacement les problèmes de disparition et d'explosion de gradient qui se produisent à mesure que la profondeur du réseau augmente en ajoutant des connexions résiduelles dans le réseau.
Adam est un algorithme d'optimisation de gradient du premier ordre, particulièrement adapté à la gestion des problèmes d'optimisation avec des données et des paramètres à grande échelle.
La technologie de base du modèle GPT est l’architecture Transformer, qui capture efficacement les informations contextuelles grâce au mécanisme d’auto-attention.
Le principe de fréquence, ou principe F en abrégé, est un concept important dans le domaine de l'apprentissage profond. Il décrit la caractéristique selon laquelle les réseaux neuronaux profonds (DNN) ont tendance à s'adapter à la fonction cible de basse fréquence à haute fréquence pendant l'entraînement. Ce principe a été établi par l’Université Jiao Tong de Shanghai […]
L'agrégation de paramètres décrit le phénomène selon lequel, pendant le processus de formation du réseau neuronal, les paramètres du modèle ont tendance à se regrouper vers des valeurs ou des directions spécifiques.
La complexité cyclomatique est une mesure logicielle utilisée pour mesurer la complexité d'un programme.
L'idée principale de Dropout est de supprimer de manière aléatoire (c'est-à-dire de supprimer temporairement) certains neurones du réseau et leurs connexions pendant le processus de formation pour éviter que le modèle ne soit surajusté.
Les réseaux d'attention graphique (GAT) sont un type de réseau neuronal conçu pour les données structurées sous forme de graphique. Ils ont été proposés par Petar Veličković et ses collègues en 2017. L'article correspondant est « Graph Attention Networks (GATs) ».
Message Passing Neural Networks (MPNN) est un cadre de réseau neuronal pour le traitement de données structurées sous forme de graphes. Cette idée a été proposée par Gilmer et al. en 2017. L'article connexe est « Neural Messa […]
Graph Convolutional Networks (GCN), Kipf et Welling ont publié un article intitulé « Semi-Supervised Classification » lors de la conférence ICLR 2017.
L'unité récurrente fermée (GRU) est une variante du réseau neuronal récurrent (RNN) proposé par Cho et al. en 2014. L'article connexe est « Évaluation empirique de Gate […]
AlexNet est un réseau neuronal convolutif profond (CNN) proposé par Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton en 2012 et utilisé dans le concours de classification d'images ImageNet cette année-là.
CART Decision Tree est un algorithme d'arbre de décision qui peut être utilisé pour les tâches de classification et de régression.
Gradient Boosting est un algorithme d'apprentissage d'ensemble qui construit un modèle de prédiction fort en combinant plusieurs modèles de prédiction faibles (généralement des arbres de décision).
LeNet-5 est un travail pionnier dans le domaine de l'apprentissage profond et des réseaux de neurones convolutifs, qui a jeté les bases de nombreux concepts clés de l'apprentissage profond moderne, tels que les couches convolutives, les couches de pooling et les couches entièrement connectées.
Les questions de qualification se concentrent sur la manière de déterminer toutes les conditions ou facteurs nécessaires pour qu’une action ou un événement soit exécuté avec succès dans un environnement en évolution.
ReAct propose un paradigme général qui combine les avancées du raisonnement et de l’action pour permettre aux modèles linguistiques de résoudre une variété de tâches de raisonnement et de prise de décision linguistiques.
Pre-training Once est un cadre de formation auto-supervisé à trois branches qui introduit des branches d'étudiants élastiques et échantillonne aléatoirement des sous-réseaux pour la formation à chaque étape de pré-formation.
FlexAttention est un mécanisme d'attention flexible conçu pour améliorer l'efficacité des modèles de vision-langage haute résolution.
FlashAttention est un algorithme d'attention efficace et respectueux de la mémoire.