Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
Une fonction de compression est une fonction qui compresse une plus grande plage d'entrées dans une plage plus petite. Souvent utilisé comme fonction d'activation.
Le vote pondéré est une méthode de vote qui prend en compte les pondérations.
L'analyse des composants les plus proches (NCA) est une méthode d'apprentissage de mesure de distance associée à KNN (K Nearest Neighbors) et est une méthode d'apprentissage supervisé. Cette théorie a été proposée pour la première fois par Goldberger et al. en 2004.
La matrice de dispersion intra-classe représente la dispersion de chaque point d'échantillon autour de la moyenne.
La compréhensibilité fait référence à la facilité avec laquelle quelque chose est compris, principalement à la facilité avec laquelle les lecteurs peuvent le comprendre.
La détection de polarité est le processus de classification de la polarité des sentiments d'un texte en langage naturel.
Une fonction d'activation est un principe dynamique couramment utilisé dans les modèles de réseaux neuronaux qui définit comment un neurone modifie sa valeur d'activation en fonction de l'activité d'autres neurones. La fonction d'activation générale dépend des poids dans le réseau, ce qui peut introduire des facteurs non linéaires et est généralement utilisée pour résoudre des problèmes qui ne peuvent pas être résolus par des équations linéaires.
Un arbre d'analyse, également appelé arbre syntaxique concret, est une représentation des résultats d'une analyse syntaxique, qui représente la structure grammaticale d'une langue sous forme d'arbre.
La structure est une méthode d'affichage d'un diagramme de topologie de réseau neuronal, couramment utilisée dans le domaine des réseaux neuronaux. Dans un réseau neuronal, les variables peuvent être les poids et les valeurs d'activation des connexions neuronales.
Le gradient analytique fait référence à l’utilisation de la rétropropagation dans les algorithmes de réseaux neuronaux pour calculer le gradient de la fonction objective par rapport à chaque paramètre.
L'approximation ou l'approximation signifie qu'une chose est semblable à une autre chose, mais pas exactement la même.
Le calcul bayésien approximatif (ABC) est une méthode de calcul basée sur les statistiques bayésiennes qui peut être utilisée pour estimer la distribution postérieure des paramètres du modèle.
Les méthodes d’inférence approximative font référence à l’échantillonnage et à l’apprentissage à partir d’une grande quantité de données et à l’utilisation d’une logique de vérification d’hypothèses pour approcher en permanence le véritable modèle.
En mathématiques, une matrice de distance est une matrice (c'est-à-dire un tableau à deux dimensions) contenant les distances entre des paires de points.
Plug and Play Generative Network (PPGN) est un modèle proposé par Nguyen et al. en 2016.
L'attribut de nom de colonne fait référence à la fonctionnalité « liée au nom » des données, et la valeur correspondante est le nom d'un symbole ou d'une chose.
La rétropropagation des erreurs cumulatives est un algorithme de réseau neuronal qui adopte une stratégie basée sur la descente de gradient pour ajuster les paramètres dans la direction du gradient négatif de la cible, dans le but de minimiser l'erreur d'apprentissage. Également connu sous le nom d'« algorithme de rétropropagation » ou « algorithme BP » en abrégé
Le regroupement d’échantillons liés est généralement utilisé pour l’apprentissage non supervisé. Une fois tous les échantillons regroupés, les chercheurs peuvent ensuite éventuellement attribuer une signification à chaque groupe. Il existe de nombreux algorithmes de clustering, par exemple l'algorithme k-means regroupe les échantillons en fonction de leur proximité avec le centroïde, comme indiqué ci-dessous : Après cela, les chercheurs peuvent […]
La méthode de vote à la majorité absolue est une méthode de vote qui nécessite plus de la moitié des votes valides pour être reconnue. Lorsque plusieurs classificateurs prédisent une certaine catégorie, seule la partie supérieure à la moitié du total des résultats sera prédite. Voici la formule de représentation : $latex {H{ \left( {x} \right) }\text{ […]
L'apprentissage multiple est une méthode de base en reconnaissance de formes, qui recherche l'essence des choses à partir des phénomènes observés et trouve les lois internes qui génèrent les données. L'apprentissage des variétés peut être divisé en deux types : l'algorithme d'apprentissage des variétés linéaires et l'algorithme d'apprentissage des variétés non linéaires. L'algorithme d'apprentissage de variétés non linéaires comprend le mappage isométrique Isomap, le mappage propre de Laplace L […]
L'erreur quadratique moyenne est la valeur attendue qui reflète le degré de différence entre la valeur estimée et la valeur réelle. Il est souvent utilisé pour évaluer le degré de changement des données et prédire l’exactitude des données. Supposons qu'il existe un paramètre , dont la fonction d'estimation est
, alors $latex {MSE [...]
La traduction automatique est l'utilisation d'ordinateurs pour convertir entre différentes langues, traduisant généralement la langue source vers la langue cible. Processus de traduction Du point de vue de la traduction humaine à la traduction automatique, le processus de traduction peut être décomposé comme suit : Déchiffrer le sens du texte source et recompiler le sens analysé dans la langue cible. Méthodes de traduction Étapes générales de la traduction automatique […]
L'hypothèse de variété est une hypothèse courante dans l'apprentissage semi-supervisé, et une autre est l'hypothèse de clustering. L'hypothèse multiple stipule que les exemples avec des propriétés similaires se trouvent généralement dans de petits voisinages locaux et ont donc des étiquettes similaires, ce qui reflète la régularité locale de la fonction de décision. Contrairement à l'hypothèse de clustering qui se concentre sur les caractéristiques globales, l'hypothèse de variété se concentre davantage sur les caractéristiques [...]
L'estimation du maximum de vraisemblance est une méthode d'estimation principalement utilisée pour déterminer les paramètres du modèle en trouvant les données possibles qui maximisent la valeur d'observation du modèle et en les utilisant comme choix final. Dans l’estimation du maximum de vraisemblance, l’échantillonnage satisfait l’hypothèse d’une distribution indépendante et identique. Son objectif est d’utiliser les résultats d’échantillons connus pour déduire la valeur du paramètre qui a la plus grande probabilité de conduire à des résultats connexes.
Une fonction de compression est une fonction qui compresse une plus grande plage d'entrées dans une plage plus petite. Souvent utilisé comme fonction d'activation.
Le vote pondéré est une méthode de vote qui prend en compte les pondérations.
L'analyse des composants les plus proches (NCA) est une méthode d'apprentissage de mesure de distance associée à KNN (K Nearest Neighbors) et est une méthode d'apprentissage supervisé. Cette théorie a été proposée pour la première fois par Goldberger et al. en 2004.
La matrice de dispersion intra-classe représente la dispersion de chaque point d'échantillon autour de la moyenne.
La compréhensibilité fait référence à la facilité avec laquelle quelque chose est compris, principalement à la facilité avec laquelle les lecteurs peuvent le comprendre.
La détection de polarité est le processus de classification de la polarité des sentiments d'un texte en langage naturel.
Une fonction d'activation est un principe dynamique couramment utilisé dans les modèles de réseaux neuronaux qui définit comment un neurone modifie sa valeur d'activation en fonction de l'activité d'autres neurones. La fonction d'activation générale dépend des poids dans le réseau, ce qui peut introduire des facteurs non linéaires et est généralement utilisée pour résoudre des problèmes qui ne peuvent pas être résolus par des équations linéaires.
Un arbre d'analyse, également appelé arbre syntaxique concret, est une représentation des résultats d'une analyse syntaxique, qui représente la structure grammaticale d'une langue sous forme d'arbre.
La structure est une méthode d'affichage d'un diagramme de topologie de réseau neuronal, couramment utilisée dans le domaine des réseaux neuronaux. Dans un réseau neuronal, les variables peuvent être les poids et les valeurs d'activation des connexions neuronales.
Le gradient analytique fait référence à l’utilisation de la rétropropagation dans les algorithmes de réseaux neuronaux pour calculer le gradient de la fonction objective par rapport à chaque paramètre.
L'approximation ou l'approximation signifie qu'une chose est semblable à une autre chose, mais pas exactement la même.
Le calcul bayésien approximatif (ABC) est une méthode de calcul basée sur les statistiques bayésiennes qui peut être utilisée pour estimer la distribution postérieure des paramètres du modèle.
Les méthodes d’inférence approximative font référence à l’échantillonnage et à l’apprentissage à partir d’une grande quantité de données et à l’utilisation d’une logique de vérification d’hypothèses pour approcher en permanence le véritable modèle.
En mathématiques, une matrice de distance est une matrice (c'est-à-dire un tableau à deux dimensions) contenant les distances entre des paires de points.
Plug and Play Generative Network (PPGN) est un modèle proposé par Nguyen et al. en 2016.
L'attribut de nom de colonne fait référence à la fonctionnalité « liée au nom » des données, et la valeur correspondante est le nom d'un symbole ou d'une chose.
La rétropropagation des erreurs cumulatives est un algorithme de réseau neuronal qui adopte une stratégie basée sur la descente de gradient pour ajuster les paramètres dans la direction du gradient négatif de la cible, dans le but de minimiser l'erreur d'apprentissage. Également connu sous le nom d'« algorithme de rétropropagation » ou « algorithme BP » en abrégé
Le regroupement d’échantillons liés est généralement utilisé pour l’apprentissage non supervisé. Une fois tous les échantillons regroupés, les chercheurs peuvent ensuite éventuellement attribuer une signification à chaque groupe. Il existe de nombreux algorithmes de clustering, par exemple l'algorithme k-means regroupe les échantillons en fonction de leur proximité avec le centroïde, comme indiqué ci-dessous : Après cela, les chercheurs peuvent […]
La méthode de vote à la majorité absolue est une méthode de vote qui nécessite plus de la moitié des votes valides pour être reconnue. Lorsque plusieurs classificateurs prédisent une certaine catégorie, seule la partie supérieure à la moitié du total des résultats sera prédite. Voici la formule de représentation : $latex {H{ \left( {x} \right) }\text{ […]
L'apprentissage multiple est une méthode de base en reconnaissance de formes, qui recherche l'essence des choses à partir des phénomènes observés et trouve les lois internes qui génèrent les données. L'apprentissage des variétés peut être divisé en deux types : l'algorithme d'apprentissage des variétés linéaires et l'algorithme d'apprentissage des variétés non linéaires. L'algorithme d'apprentissage de variétés non linéaires comprend le mappage isométrique Isomap, le mappage propre de Laplace L […]
L'erreur quadratique moyenne est la valeur attendue qui reflète le degré de différence entre la valeur estimée et la valeur réelle. Il est souvent utilisé pour évaluer le degré de changement des données et prédire l’exactitude des données. Supposons qu'il existe un paramètre , dont la fonction d'estimation est
, alors $latex {MSE [...]
La traduction automatique est l'utilisation d'ordinateurs pour convertir entre différentes langues, traduisant généralement la langue source vers la langue cible. Processus de traduction Du point de vue de la traduction humaine à la traduction automatique, le processus de traduction peut être décomposé comme suit : Déchiffrer le sens du texte source et recompiler le sens analysé dans la langue cible. Méthodes de traduction Étapes générales de la traduction automatique […]
L'hypothèse de variété est une hypothèse courante dans l'apprentissage semi-supervisé, et une autre est l'hypothèse de clustering. L'hypothèse multiple stipule que les exemples avec des propriétés similaires se trouvent généralement dans de petits voisinages locaux et ont donc des étiquettes similaires, ce qui reflète la régularité locale de la fonction de décision. Contrairement à l'hypothèse de clustering qui se concentre sur les caractéristiques globales, l'hypothèse de variété se concentre davantage sur les caractéristiques [...]
L'estimation du maximum de vraisemblance est une méthode d'estimation principalement utilisée pour déterminer les paramètres du modèle en trouvant les données possibles qui maximisent la valeur d'observation du modèle et en les utilisant comme choix final. Dans l’estimation du maximum de vraisemblance, l’échantillonnage satisfait l’hypothèse d’une distribution indépendante et identique. Son objectif est d’utiliser les résultats d’échantillons connus pour déduire la valeur du paramètre qui a la plus grande probabilité de conduire à des résultats connexes.