Command Palette
Search for a command to run...
Wiki
Glossaire du Machine Learning : Explorez les définitions et explications des concepts clés de l'IA et du ML
La distance non métrique fait référence à la distance entre les paramètres qui ne satisfait pas la directivité.
La factorisation matricielle non négative (NMF) est une méthode de décomposition matricielle dans laquelle tous les éléments satisfont la contrainte non négative.
La norme est une fonction de base en mathématiques. Il est souvent utilisé pour mesurer la longueur ou la taille d'un vecteur dans un espace vectoriel (ou une matrice). La norme des paramètres du modèle peut être utilisée comme fonction de régularisation.
L'ODE est la stratégie la plus couramment utilisée pour les classificateurs bayésiens semi-naïfs. La dépendance dite unique consiste à supposer que chaque attribut dépend au plus d'un autre attribut extérieur à la catégorie.
La fonction noyau polynomiale fait référence à une fonction noyau exprimée sous forme polynomiale. Il s'agit d'une fonction noyau non standard adaptée aux données normalisées orthogonales. Sa forme spécifique est illustrée sur la figure.
Le principe des interprétations multiples est l’idée que toutes les hypothèses cohérentes avec les observations empiriques doivent être conservées.
Le partitionnement par hyperplan signifie que si deux ensembles convexes disjoints sont tous deux ouverts, alors il existe un hyperplan qui peut les partitionner.
L'échantillonnage stratifié est une méthode d'échantillonnage qui implique une stratification avant l'extraction. C'est une méthode d'échantillonnage couramment utilisée en statistique.
L’apprentissage symbolique fait référence aux méthodes d’apprentissage automatique qui simulent fonctionnellement les capacités d’apprentissage humaines.
Le symbolisme est une école de pensée dans le domaine de l’intelligence artificielle qui croit en la logique mathématique.
La fonction pas à pas unitaire est également appelée fonction pas à pas de Heaviside et est définie comme suit : Son graphique est le suivant : Termes apparentés : fonction d'impulsion,
L'architecture Von Neumann est un concept de conception informatique qui combine la mémoire d'instructions de programme et la mémoire de données.
L’apprentissage secondaire fait référence à l’apprentissage répété lorsque le premier résultat d’apprentissage n’est pas idéal.
Les coûts inégaux font référence à des situations dans lesquelles des coûts différents sont attribués aux pertes subies par chaque catégorie.
Les jeux non saturés s’inspirent de méthodes heuristiques plutôt que d’analyses théoriques.
Le réseau antagoniste est une implémentation du réseau antagoniste génératif, qui est utilisé pour générer des échantillons antagonistes par lots pour un modèle de réseau neuronal spécifié.
Les exemples contradictoires font référence aux entrées dans un réseau neuronal qui amènent le réseau à produire des résultats incorrects. Dans l’ensemble de données, les échantillons d’entrée sont formés en ajoutant délibérément une légère interférence. L'entrée interférée amène le modèle à donner une sortie erronée avec une grande confiance. Les échantillons d’entrée sont appelés échantillons contradictoires. Ce comportement est généralement considéré comme une attaque adverse contre le modèle de réseau neuronal. […]
Les couches affines sont des couches entièrement connectées dans les réseaux neuronaux, où les couches affines peuvent être considérées comme les interconnexions entre les neurones de différentes couches et, à bien des égards, peuvent être considérées comme la couche « standard » d'un réseau neuronal. La forme générale d'une couche affine est la suivante y = f(wx + b) Remarque : x est l'entrée de la couche, w est le paramètre et b est un biais […]
L’apprentissage métrique peut également être considéré comme une similarité. L’apprentissage métrique consiste à mesurer la similarité entre les échantillons, ce qui est l’un des problèmes fondamentaux de la reconnaissance de formes. L’objectif de l’apprentissage métrique est de minimiser la distance entre les échantillons du même type et de maximiser la distance entre les échantillons de types différents.
La multi-classification, parfois appelée multi-classification, fait référence à la classification de plus de deux catégories dans une tâche de classification. Les techniques de classification multi-classes existantes peuvent être divisées en (i) conversion en binaire (ii) expansion à partir du binaire et (iii) classification hiérarchique. Stratégies courantes 1) La stratégie du « un contre tous » nécessite la création d’un […]
Le perceptron multicouche (MLP) est un réseau neuronal artificiel à propagation directe qui mappe un ensemble de vecteurs d'entrée à un ensemble de vecteurs de sortie. Il peut être considéré comme un graphe orienté constitué de plusieurs couches de nœuds, chacune étant entièrement connectée à la couche suivante. En plus des nœuds d’entrée, chaque […]
La modalité fait référence à la manière spécifique dont les gens reçoivent des informations. Étant donné que les données multimédias sont souvent un support de transmission de plusieurs types d’informations (par exemple, une vidéo transmet souvent des informations textuelles, visuelles et auditives en même temps), l’apprentissage multimodal est progressivement devenu le principal moyen d’analyse et de compréhension du contenu multimédia. L’apprentissage multimodal comprend principalement les éléments suivants […]
La limite supérieure de l’erreur de généralisation fait référence à la valeur maximale autorisée pour l’erreur de généralisation. Dépasser cette limite supérieure affectera la faisabilité de l’apprentissage automatique. L'erreur de généralisation fait référence à l'erreur générée lors du processus de généralisation de l'ensemble d'apprentissage vers l'extérieur de l'ensemble d'apprentissage. En général, l'erreur en dehors de l'ensemble d'apprentissage est utilisée, c'est-à-dire l'erreur attendue dans l'ensemble de l'espace d'entrée moins l'erreur d'apprentissage. Parce que la limite supérieure de l’erreur a une large […]
La mise à l'échelle multidimensionnelle (MDS) est une visualisation des distances entre un ensemble d'objets et peut également être utilisée comme algorithme de réduction de dimensionnalité non supervisé. Il s’agit d’une méthode de réduction de dimensionnalité qui peut atténuer les données d’échantillon clairsemées et la difficulté de calcul de distance qui se produisent dans les situations de grande dimension. Il s'agit d'une méthode de réduction de dimensionnalité linéaire, différente à la fois de l'analyse en composantes principales et de l'analyse de réduction de dimensionnalité linéaire. […]
La distance non métrique fait référence à la distance entre les paramètres qui ne satisfait pas la directivité.
La factorisation matricielle non négative (NMF) est une méthode de décomposition matricielle dans laquelle tous les éléments satisfont la contrainte non négative.
La norme est une fonction de base en mathématiques. Il est souvent utilisé pour mesurer la longueur ou la taille d'un vecteur dans un espace vectoriel (ou une matrice). La norme des paramètres du modèle peut être utilisée comme fonction de régularisation.
L'ODE est la stratégie la plus couramment utilisée pour les classificateurs bayésiens semi-naïfs. La dépendance dite unique consiste à supposer que chaque attribut dépend au plus d'un autre attribut extérieur à la catégorie.
La fonction noyau polynomiale fait référence à une fonction noyau exprimée sous forme polynomiale. Il s'agit d'une fonction noyau non standard adaptée aux données normalisées orthogonales. Sa forme spécifique est illustrée sur la figure.
Le principe des interprétations multiples est l’idée que toutes les hypothèses cohérentes avec les observations empiriques doivent être conservées.
Le partitionnement par hyperplan signifie que si deux ensembles convexes disjoints sont tous deux ouverts, alors il existe un hyperplan qui peut les partitionner.
L'échantillonnage stratifié est une méthode d'échantillonnage qui implique une stratification avant l'extraction. C'est une méthode d'échantillonnage couramment utilisée en statistique.
L’apprentissage symbolique fait référence aux méthodes d’apprentissage automatique qui simulent fonctionnellement les capacités d’apprentissage humaines.
Le symbolisme est une école de pensée dans le domaine de l’intelligence artificielle qui croit en la logique mathématique.
La fonction pas à pas unitaire est également appelée fonction pas à pas de Heaviside et est définie comme suit : Son graphique est le suivant : Termes apparentés : fonction d'impulsion,
L'architecture Von Neumann est un concept de conception informatique qui combine la mémoire d'instructions de programme et la mémoire de données.
L’apprentissage secondaire fait référence à l’apprentissage répété lorsque le premier résultat d’apprentissage n’est pas idéal.
Les coûts inégaux font référence à des situations dans lesquelles des coûts différents sont attribués aux pertes subies par chaque catégorie.
Les jeux non saturés s’inspirent de méthodes heuristiques plutôt que d’analyses théoriques.
Le réseau antagoniste est une implémentation du réseau antagoniste génératif, qui est utilisé pour générer des échantillons antagonistes par lots pour un modèle de réseau neuronal spécifié.
Les exemples contradictoires font référence aux entrées dans un réseau neuronal qui amènent le réseau à produire des résultats incorrects. Dans l’ensemble de données, les échantillons d’entrée sont formés en ajoutant délibérément une légère interférence. L'entrée interférée amène le modèle à donner une sortie erronée avec une grande confiance. Les échantillons d’entrée sont appelés échantillons contradictoires. Ce comportement est généralement considéré comme une attaque adverse contre le modèle de réseau neuronal. […]
Les couches affines sont des couches entièrement connectées dans les réseaux neuronaux, où les couches affines peuvent être considérées comme les interconnexions entre les neurones de différentes couches et, à bien des égards, peuvent être considérées comme la couche « standard » d'un réseau neuronal. La forme générale d'une couche affine est la suivante y = f(wx + b) Remarque : x est l'entrée de la couche, w est le paramètre et b est un biais […]
L’apprentissage métrique peut également être considéré comme une similarité. L’apprentissage métrique consiste à mesurer la similarité entre les échantillons, ce qui est l’un des problèmes fondamentaux de la reconnaissance de formes. L’objectif de l’apprentissage métrique est de minimiser la distance entre les échantillons du même type et de maximiser la distance entre les échantillons de types différents.
La multi-classification, parfois appelée multi-classification, fait référence à la classification de plus de deux catégories dans une tâche de classification. Les techniques de classification multi-classes existantes peuvent être divisées en (i) conversion en binaire (ii) expansion à partir du binaire et (iii) classification hiérarchique. Stratégies courantes 1) La stratégie du « un contre tous » nécessite la création d’un […]
Le perceptron multicouche (MLP) est un réseau neuronal artificiel à propagation directe qui mappe un ensemble de vecteurs d'entrée à un ensemble de vecteurs de sortie. Il peut être considéré comme un graphe orienté constitué de plusieurs couches de nœuds, chacune étant entièrement connectée à la couche suivante. En plus des nœuds d’entrée, chaque […]
La modalité fait référence à la manière spécifique dont les gens reçoivent des informations. Étant donné que les données multimédias sont souvent un support de transmission de plusieurs types d’informations (par exemple, une vidéo transmet souvent des informations textuelles, visuelles et auditives en même temps), l’apprentissage multimodal est progressivement devenu le principal moyen d’analyse et de compréhension du contenu multimédia. L’apprentissage multimodal comprend principalement les éléments suivants […]
La limite supérieure de l’erreur de généralisation fait référence à la valeur maximale autorisée pour l’erreur de généralisation. Dépasser cette limite supérieure affectera la faisabilité de l’apprentissage automatique. L'erreur de généralisation fait référence à l'erreur générée lors du processus de généralisation de l'ensemble d'apprentissage vers l'extérieur de l'ensemble d'apprentissage. En général, l'erreur en dehors de l'ensemble d'apprentissage est utilisée, c'est-à-dire l'erreur attendue dans l'ensemble de l'espace d'entrée moins l'erreur d'apprentissage. Parce que la limite supérieure de l’erreur a une large […]
La mise à l'échelle multidimensionnelle (MDS) est une visualisation des distances entre un ensemble d'objets et peut également être utilisée comme algorithme de réduction de dimensionnalité non supervisé. Il s’agit d’une méthode de réduction de dimensionnalité qui peut atténuer les données d’échantillon clairsemées et la difficulté de calcul de distance qui se produisent dans les situations de grande dimension. Il s'agit d'une méthode de réduction de dimensionnalité linéaire, différente à la fois de l'analyse en composantes principales et de l'analyse de réduction de dimensionnalité linéaire. […]