Command Palette
Search for a command to run...
Wiki
Glossaire du Machine Learning : Explorez les définitions et explications des concepts clés de l'IA et du ML
L'appel de fonction est un concept de base en programmation, qui signifie effectuer une tâche spécifique en appelant une fonction définie pendant l'exécution du programme.
Le réseau neuronal à pics (SNN), à l'intersection des neurosciences et de l'intelligence artificielle, est un modèle de réseau neuronal qui simule le comportement des neurones biologiques dans le cerveau.
Le modèle par éléments finis (MEF) est une méthode de calcul numérique qui approxime le comportement physique d'une entité en discrétisant une structure physique continue en un nombre fini de petites parties, appelées « éléments ». Ces éléments peuvent être des éléments linéaires unidimensionnels, des éléments surfaciques bidimensionnels ou des volumes tridimensionnels […]
Le codage de position contextuel est un nouveau type de méthode de codage de position qui permet aux informations de position de varier en fonction des conditions de contexte.
L'apprentissage avec erreurs (LWE) est un problème très important en cryptographie et en informatique théorique, proposé par Oded Regev en 2005. Le problème LWE peut être décrit comme suit : étant donné un système d'équations linéaires, où chaque […]
En mathématiques, l'approximation de faible rang est un problème de minimisation où la fonction de coût mesure la qualité de l'ajustement entre une matrice donnée (les données) et une matrice d'approximation (les variables d'optimisation), mais le rang de la matrice d'approximation doit être réduit.
La distillation des connaissances est une technique d’apprentissage automatique qui vise à transférer les apprentissages d’un grand modèle pré-entraîné (le « modèle enseignant ») vers un « modèle étudiant » plus petit.
YOLOv10 atteint des performances de pointe tout en réduisant considérablement la charge de calcul
L'infrastructure en tant que service (IaaS) est un service de cloud computing qui fournit les ressources informatiques, de stockage et de réseau nécessaires sur une base de paiement à l'utilisation.
NAS fait référence aux périphériques de stockage qui se connectent à un réseau et fournissent des services d'accès aux fichiers aux systèmes informatiques.
Contrairement aux entrepôts de données ou aux silos, les lacs de données utilisent une architecture plate avec stockage d'objets pour conserver les métadonnées des fichiers.
Le règlement général sur la protection des données (RGPD) est la loi la plus stricte au monde en matière de confidentialité et de sécurité.
L'infrastructure hyperconvergée (HCI) combine les serveurs et le stockage dans une plate-forme d'infrastructure distribuée, crée des blocs de construction flexibles grâce à des logiciels intelligents et remplace l'infrastructure traditionnelle composée de serveurs, de réseaux de stockage et de baies de stockage distincts.
Le calcul exascale fait référence à un système informatique capable de calculer au moins « 10 18 opérations IEEE 754 double précision (64 bits) (multiplications et/ou additions) par seconde (exa FLOPS) », ce qui est une mesure des performances d'un supercalculateur. L’informatique exascale est l’informatique […]
HyperNetworks est une structure de réseau neuronal qui présente certaines différences dans la paramétrisation du modèle par rapport aux réseaux neuronaux traditionnels. L’article « HyperNetworks » publié par Google Brain en 2016 indiquait que dans Hyper […]
Le codage prédictif (PC) est un cadre théorique en sciences cognitives qui soutient que le cerveau humain traite la cognition à travers des prédictions spatio-temporelles du monde visuel.
Le modèle de probabilité de diffusion démontre le lien entre le modèle de probabilité de diffusion et la théorie PC.
Le cadre DQ-LoRe utilise la requête double (DQ) et le reclassement approximatif de faible rang (LoRe) pour sélectionner automatiquement des exemples d'apprentissage contextuel.
L'apprentissage contrastif est une technique qui améliore les performances des tâches de vision en utilisant le principe de contraste des échantillons les uns par rapport aux autres pour apprendre les propriétés communes aux classes de données et les propriétés qui distinguent une classe de données d'une autre.
En abordant les limites du LSTM traditionnel et en incorporant de nouveaux composants tels que la porte exponentielle, la mémoire matricielle et l'architecture parallélisable, xLSTM ouvre de nouvelles possibilités pour le LLM.
Un nuage de points est un ensemble de données de points dans l'espace qui peuvent représenter une forme ou un objet 3D, généralement acquis par un scanner 3D.
La segmentation d'image de référence (RIS) vise à segmenter les objets cibles référencés par des expressions en langage naturel. Cependant, les méthodes précédentes reposent sur une forte hypothèse selon laquelle une phrase doit décrire un objet dans une image […]
Le modèle des ébauches multiples est une théorie physicaliste de la conscience basée sur le cognitivisme, proposée par Daniel Dennett. Cette théorie considère l’esprit du point de vue du traitement de l’information. Dennett a publié Consciousness Explained en 1991.
KAN : Réseaux de Kolmogorov-Arnold L'article propose une alternative prometteuse au perceptron multicouche (MLP) appelée réseaux de Kolmogorov-Arnold (KAN). L'origine du nom KAN est […]
L'appel de fonction est un concept de base en programmation, qui signifie effectuer une tâche spécifique en appelant une fonction définie pendant l'exécution du programme.
Le réseau neuronal à pics (SNN), à l'intersection des neurosciences et de l'intelligence artificielle, est un modèle de réseau neuronal qui simule le comportement des neurones biologiques dans le cerveau.
Le modèle par éléments finis (MEF) est une méthode de calcul numérique qui approxime le comportement physique d'une entité en discrétisant une structure physique continue en un nombre fini de petites parties, appelées « éléments ». Ces éléments peuvent être des éléments linéaires unidimensionnels, des éléments surfaciques bidimensionnels ou des volumes tridimensionnels […]
Le codage de position contextuel est un nouveau type de méthode de codage de position qui permet aux informations de position de varier en fonction des conditions de contexte.
L'apprentissage avec erreurs (LWE) est un problème très important en cryptographie et en informatique théorique, proposé par Oded Regev en 2005. Le problème LWE peut être décrit comme suit : étant donné un système d'équations linéaires, où chaque […]
En mathématiques, l'approximation de faible rang est un problème de minimisation où la fonction de coût mesure la qualité de l'ajustement entre une matrice donnée (les données) et une matrice d'approximation (les variables d'optimisation), mais le rang de la matrice d'approximation doit être réduit.
La distillation des connaissances est une technique d’apprentissage automatique qui vise à transférer les apprentissages d’un grand modèle pré-entraîné (le « modèle enseignant ») vers un « modèle étudiant » plus petit.
YOLOv10 atteint des performances de pointe tout en réduisant considérablement la charge de calcul
L'infrastructure en tant que service (IaaS) est un service de cloud computing qui fournit les ressources informatiques, de stockage et de réseau nécessaires sur une base de paiement à l'utilisation.
NAS fait référence aux périphériques de stockage qui se connectent à un réseau et fournissent des services d'accès aux fichiers aux systèmes informatiques.
Contrairement aux entrepôts de données ou aux silos, les lacs de données utilisent une architecture plate avec stockage d'objets pour conserver les métadonnées des fichiers.
Le règlement général sur la protection des données (RGPD) est la loi la plus stricte au monde en matière de confidentialité et de sécurité.
L'infrastructure hyperconvergée (HCI) combine les serveurs et le stockage dans une plate-forme d'infrastructure distribuée, crée des blocs de construction flexibles grâce à des logiciels intelligents et remplace l'infrastructure traditionnelle composée de serveurs, de réseaux de stockage et de baies de stockage distincts.
Le calcul exascale fait référence à un système informatique capable de calculer au moins « 10 18 opérations IEEE 754 double précision (64 bits) (multiplications et/ou additions) par seconde (exa FLOPS) », ce qui est une mesure des performances d'un supercalculateur. L’informatique exascale est l’informatique […]
HyperNetworks est une structure de réseau neuronal qui présente certaines différences dans la paramétrisation du modèle par rapport aux réseaux neuronaux traditionnels. L’article « HyperNetworks » publié par Google Brain en 2016 indiquait que dans Hyper […]
Le codage prédictif (PC) est un cadre théorique en sciences cognitives qui soutient que le cerveau humain traite la cognition à travers des prédictions spatio-temporelles du monde visuel.
Le modèle de probabilité de diffusion démontre le lien entre le modèle de probabilité de diffusion et la théorie PC.
Le cadre DQ-LoRe utilise la requête double (DQ) et le reclassement approximatif de faible rang (LoRe) pour sélectionner automatiquement des exemples d'apprentissage contextuel.
L'apprentissage contrastif est une technique qui améliore les performances des tâches de vision en utilisant le principe de contraste des échantillons les uns par rapport aux autres pour apprendre les propriétés communes aux classes de données et les propriétés qui distinguent une classe de données d'une autre.
En abordant les limites du LSTM traditionnel et en incorporant de nouveaux composants tels que la porte exponentielle, la mémoire matricielle et l'architecture parallélisable, xLSTM ouvre de nouvelles possibilités pour le LLM.
Un nuage de points est un ensemble de données de points dans l'espace qui peuvent représenter une forme ou un objet 3D, généralement acquis par un scanner 3D.
La segmentation d'image de référence (RIS) vise à segmenter les objets cibles référencés par des expressions en langage naturel. Cependant, les méthodes précédentes reposent sur une forte hypothèse selon laquelle une phrase doit décrire un objet dans une image […]
Le modèle des ébauches multiples est une théorie physicaliste de la conscience basée sur le cognitivisme, proposée par Daniel Dennett. Cette théorie considère l’esprit du point de vue du traitement de l’information. Dennett a publié Consciousness Explained en 1991.
KAN : Réseaux de Kolmogorov-Arnold L'article propose une alternative prometteuse au perceptron multicouche (MLP) appelée réseaux de Kolmogorov-Arnold (KAN). L'origine du nom KAN est […]