Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
Le réseau de Hopfield est un réseau neuronal récurrent qui est principalement utilisé pour des problèmes tels que la mémoire associative et la reconnaissance de formes.
La réduction des erreurs de récompense fait référence au problème de l’apprentissage par renforcement (RL) causé par la fonction de récompense qui ne correspond pas entièrement au véritable objectif de l’agent.
Le système de recommandation séquentielle est un type important de système de recommandation, dont la tâche principale est de prédire le prochain comportement de l'utilisateur en fonction de la séquence de comportement historique de l'utilisateur.
R-MFDN améliore la sensibilité du modèle au contenu falsifié grâce à une fonction de perte d’apprentissage contrastive intermodale et à une fonction de perte d’apprentissage contrastive axée sur l’identité.
Le puzzle Karel est un ensemble de problèmes qui impliquent de contrôler les actions d'un robot dans un environnement simulé à l'aide d'instructions.
Le mode entièrement direct (FFM) est une méthode de formation des réseaux neuronaux optiques. Il a été proposé par l'équipe de recherche de l'académicien Dai Qionghai et du professeur Fang Lu de l'université Tsinghua en 2024. L'article pertinent est « Train en mode entièrement avant […]
Le jeu Busy Beavers est un problème informatique théorique proposé en 1962 par le mathématicien Tibor Radó.
Le principe de fonctionnement du RNN est de stocker les informations de l'étape temporelle précédente via l'état de la couche cachée, de sorte que la sortie du réseau dépend de l'entrée actuelle et de l'état précédent.
ResNet résout efficacement les problèmes de disparition et d'explosion de gradient qui se produisent à mesure que la profondeur du réseau augmente en ajoutant des connexions résiduelles dans le réseau.
Adam est un algorithme d'optimisation de gradient du premier ordre, particulièrement adapté à la gestion des problèmes d'optimisation avec des données et des paramètres à grande échelle.
La technologie de base du modèle GPT est l’architecture Transformer, qui capture efficacement les informations contextuelles grâce au mécanisme d’auto-attention.
Le principe de fréquence, ou principe F en abrégé, est un concept important dans le domaine de l'apprentissage profond. Il décrit la caractéristique selon laquelle les réseaux neuronaux profonds (DNN) ont tendance à s'adapter à la fonction cible de basse fréquence à haute fréquence pendant l'entraînement. Ce principe a été établi par l’Université Jiao Tong de Shanghai […]
L'agrégation de paramètres décrit le phénomène selon lequel, pendant le processus de formation du réseau neuronal, les paramètres du modèle ont tendance à se regrouper vers des valeurs ou des directions spécifiques.
La complexité cyclomatique est une mesure logicielle utilisée pour mesurer la complexité d'un programme.
L'idée principale de Dropout est de supprimer de manière aléatoire (c'est-à-dire de supprimer temporairement) certains neurones du réseau et leurs connexions pendant le processus de formation pour éviter que le modèle ne soit surajusté.
Les réseaux d'attention graphique (GAT) sont un type de réseau neuronal conçu pour les données structurées sous forme de graphique. Ils ont été proposés par Petar Veličković et ses collègues en 2017. L'article correspondant est « Graph Attention Networks (GATs) ».
Message Passing Neural Networks (MPNN) est un cadre de réseau neuronal pour le traitement de données structurées sous forme de graphes. Cette idée a été proposée par Gilmer et al. en 2017. L'article connexe est « Neural Messa […]
Graph Convolutional Networks (GCN), Kipf et Welling ont publié un article intitulé « Semi-Supervised Classification » lors de la conférence ICLR 2017.
L'unité récurrente fermée (GRU) est une variante du réseau neuronal récurrent (RNN) proposé par Cho et al. en 2014. L'article connexe est « Évaluation empirique de Gate […]
AlexNet est un réseau neuronal convolutif profond (CNN) proposé par Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton en 2012 et utilisé dans le concours de classification d'images ImageNet cette année-là.
CART Decision Tree est un algorithme d'arbre de décision qui peut être utilisé pour les tâches de classification et de régression.
Gradient Boosting est un algorithme d'apprentissage d'ensemble qui construit un modèle de prédiction fort en combinant plusieurs modèles de prédiction faibles (généralement des arbres de décision).
LeNet-5 est un travail pionnier dans le domaine de l'apprentissage profond et des réseaux de neurones convolutifs, qui a jeté les bases de nombreux concepts clés de l'apprentissage profond moderne, tels que les couches convolutives, les couches de pooling et les couches entièrement connectées.
Les questions de qualification se concentrent sur la manière de déterminer toutes les conditions ou facteurs nécessaires pour qu’une action ou un événement soit exécuté avec succès dans un environnement en évolution.
Le réseau de Hopfield est un réseau neuronal récurrent qui est principalement utilisé pour des problèmes tels que la mémoire associative et la reconnaissance de formes.
La réduction des erreurs de récompense fait référence au problème de l’apprentissage par renforcement (RL) causé par la fonction de récompense qui ne correspond pas entièrement au véritable objectif de l’agent.
Le système de recommandation séquentielle est un type important de système de recommandation, dont la tâche principale est de prédire le prochain comportement de l'utilisateur en fonction de la séquence de comportement historique de l'utilisateur.
R-MFDN améliore la sensibilité du modèle au contenu falsifié grâce à une fonction de perte d’apprentissage contrastive intermodale et à une fonction de perte d’apprentissage contrastive axée sur l’identité.
Le puzzle Karel est un ensemble de problèmes qui impliquent de contrôler les actions d'un robot dans un environnement simulé à l'aide d'instructions.
Le mode entièrement direct (FFM) est une méthode de formation des réseaux neuronaux optiques. Il a été proposé par l'équipe de recherche de l'académicien Dai Qionghai et du professeur Fang Lu de l'université Tsinghua en 2024. L'article pertinent est « Train en mode entièrement avant […]
Le jeu Busy Beavers est un problème informatique théorique proposé en 1962 par le mathématicien Tibor Radó.
Le principe de fonctionnement du RNN est de stocker les informations de l'étape temporelle précédente via l'état de la couche cachée, de sorte que la sortie du réseau dépend de l'entrée actuelle et de l'état précédent.
ResNet résout efficacement les problèmes de disparition et d'explosion de gradient qui se produisent à mesure que la profondeur du réseau augmente en ajoutant des connexions résiduelles dans le réseau.
Adam est un algorithme d'optimisation de gradient du premier ordre, particulièrement adapté à la gestion des problèmes d'optimisation avec des données et des paramètres à grande échelle.
La technologie de base du modèle GPT est l’architecture Transformer, qui capture efficacement les informations contextuelles grâce au mécanisme d’auto-attention.
Le principe de fréquence, ou principe F en abrégé, est un concept important dans le domaine de l'apprentissage profond. Il décrit la caractéristique selon laquelle les réseaux neuronaux profonds (DNN) ont tendance à s'adapter à la fonction cible de basse fréquence à haute fréquence pendant l'entraînement. Ce principe a été établi par l’Université Jiao Tong de Shanghai […]
L'agrégation de paramètres décrit le phénomène selon lequel, pendant le processus de formation du réseau neuronal, les paramètres du modèle ont tendance à se regrouper vers des valeurs ou des directions spécifiques.
La complexité cyclomatique est une mesure logicielle utilisée pour mesurer la complexité d'un programme.
L'idée principale de Dropout est de supprimer de manière aléatoire (c'est-à-dire de supprimer temporairement) certains neurones du réseau et leurs connexions pendant le processus de formation pour éviter que le modèle ne soit surajusté.
Les réseaux d'attention graphique (GAT) sont un type de réseau neuronal conçu pour les données structurées sous forme de graphique. Ils ont été proposés par Petar Veličković et ses collègues en 2017. L'article correspondant est « Graph Attention Networks (GATs) ».
Message Passing Neural Networks (MPNN) est un cadre de réseau neuronal pour le traitement de données structurées sous forme de graphes. Cette idée a été proposée par Gilmer et al. en 2017. L'article connexe est « Neural Messa […]
Graph Convolutional Networks (GCN), Kipf et Welling ont publié un article intitulé « Semi-Supervised Classification » lors de la conférence ICLR 2017.
L'unité récurrente fermée (GRU) est une variante du réseau neuronal récurrent (RNN) proposé par Cho et al. en 2014. L'article connexe est « Évaluation empirique de Gate […]
AlexNet est un réseau neuronal convolutif profond (CNN) proposé par Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton en 2012 et utilisé dans le concours de classification d'images ImageNet cette année-là.
CART Decision Tree est un algorithme d'arbre de décision qui peut être utilisé pour les tâches de classification et de régression.
Gradient Boosting est un algorithme d'apprentissage d'ensemble qui construit un modèle de prédiction fort en combinant plusieurs modèles de prédiction faibles (généralement des arbres de décision).
LeNet-5 est un travail pionnier dans le domaine de l'apprentissage profond et des réseaux de neurones convolutifs, qui a jeté les bases de nombreux concepts clés de l'apprentissage profond moderne, tels que les couches convolutives, les couches de pooling et les couches entièrement connectées.
Les questions de qualification se concentrent sur la manière de déterminer toutes les conditions ou facteurs nécessaires pour qu’une action ou un événement soit exécuté avec succès dans un environnement en évolution.