Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
Un réseau neuronal à propagation directe est un réseau neuronal artificiel relativement simple dont les paramètres internes se propagent de manière unidirectionnelle de la couche d'entrée à la couche de sortie. Contrairement à un réseau neuronal récursif, il ne forme pas de boucle dirigée en interne. Le feedforward est également appelé forward. Du point de vue du flux de signal, une fois que le signal d'entrée entre dans le réseau, le flux de signal est unidirectionnel.
L'échantillonnage est une méthode statistique inférentielle couramment utilisée. Il s’agit d’extraire une partie des individus de la population cible (population ou population parente) comme échantillon. En observant un ou plusieurs attributs de l'échantillon, on obtient une estimation avec une certaine fiabilité des caractéristiques quantitatives de la population sur la base des données obtenues, permettant ainsi une compréhension de la population.
L'analyse des sentiments est une méthode couramment utilisée dans le traitement du langage naturel, qui repose sur l'analyse lexicale du texte pour déterminer les émotions spécifiques qu'il contient. L'analyse des sentiments est similaire à l'analyse des sentiments, mais l'analyse des sentiments contient davantage de types d'informations émotionnelles. Le dictionnaire des sentiments officiellement publié par le Conseil national de recherches du Canada contient les 8 émotions suivantes : Colère […]
L’école des fréquences croit que le monde est déterministe et qu’il existe une ontologie dont la valeur de vérité ne change pas. Le but de l’école de fréquence est de trouver la valeur de vérité ou sa portée. L’école des fréquences croit qu’il doit y avoir un mécanisme profond derrière les événements aléatoires. Bien que les événements eux-mêmes soient aléatoires, ce mécanisme est certain. L’école bayésienne est différente de l’école fréquentiste, qui […]
L’erreur d’entraînement est l’erreur qui se produit dans les données d’entraînement. est la perte moyenne du modèle sur les données d'entraînement.
L'espérance maximale est un algorithme permettant de trouver des estimations de vraisemblance maximale, ou des estimations a posteriori maximales, de paramètres dans un modèle de probabilité où le modèle de probabilité est basé sur une variable dépendante non observable. L'algorithme d'espérance maximale est couramment utilisé dans le domaine du clustering de données dans l'apprentissage automatique et la vision par ordinateur. Il est calculé en deux étapes : Calculer l'espérance E : Utiliser les estimations existantes des variables cachées […]
Le surapprentissage est un phénomène d’apprentissage automatique. Il s'agit de la situation dans laquelle certains attributs de l'échantillon qui ne sont pas nécessaires à la classification sont appris. Dans ce cas, le modèle d’arbre de décision appris n’est pas le modèle optimal et entraînera une diminution des performances de généralisation.
La perte attendue est la capacité prédictive de tous les échantillons et est un concept global ; le risque empirique est un concept local qui représente uniquement la capacité prédictive de la fonction de décision pour les échantillons de l'ensemble de données d'apprentissage. Risque empirique et risque attendu Le risque empirique est local. En minimisant la fonction de perte de tous les points d’échantillonnage dans l’ensemble d’apprentissage, le risque empirique est localement optimal et peut être obtenu de manière réaliste. […]
Naive Bayes Classifier (NBC) est un classificateur de probabilité conditionnelle basé sur Naive Bayes.
Naive Bayes fait référence à la prédiction de la classification basée uniquement sur la probabilité d'apparition de chaque catégorie. Il s'agit d'un algorithme de classification basé sur la théorie des probabilités. L'algorithme est basé sur la formule bayésienne.
Le test t apparié est un test t couramment utilisé. Il s’agit d’obtenir deux groupes d’échantillons dans des conditions différentes à partir de la même population pour analyse afin d’évaluer si les différentes conditions ont un impact significatif. Des conditions différentes peuvent faire référence à des environnements de stockage différents, à des systèmes de mesure différents, etc.
Le sous-ajustement fait référence à une situation dans laquelle le modèle ne correspond pas bien aux données d’entraînement. Il est généralement utilisé pour évaluer la capacité d’apprentissage et de généralisation du modèle.
Définir un classificateur revient à construire un modèle de classification basé sur des données existantes. Ce modèle peut mapper les enregistrements de données dans la base de données à l'une des catégories données, afin d'être appliqué à la prédiction de données. La construction et la mise en œuvre du classificateur La construction et la mise en œuvre du classificateur passent généralement par les étapes suivantes : Sélectionner des échantillons (y compris des échantillons positifs et des échantillons négatifs […]
Le poids est un concept relatif et fait référence à un certain indicateur. Le poids d’un indicateur fait référence à l’importance relative de l’indicateur dans l’évaluation globale.
Le sous-échantillonnage est une méthode permettant d’éliminer certains échantillons pour atténuer le déséquilibre des classes. C'est-à-dire sous-échantillonner de manière appropriée les catégories avec un grand nombre d'échantillons (catégories majoritaires) dans l'ensemble d'apprentissage.
La marge souple est une méthode utilisée pour traiter les problèmes linéaires inséparables et réduire l'impact du bruit. La marge souple est la pratique consistant à autoriser certains points d’erreur dans la classification.
Une fonction de base radiale (RBF) est une fonction scalaire qui est radialement symétrique. Elle est généralement définie comme la distance entre un point X dans l'espace et un centre Xc Une fonction monotone de la distance entre eux. On peut l'écrire comme K ( || X – X c || ), son effet est souvent local, c'est-à-dire lorsque X est loin de Xc La valeur de la fonction est très petite.
L'informatique quantique est un nouveau type de méthode de calcul basée sur les effets quantiques. Le principe de base est d’utiliser des bits quantiques comme unités de codage et de stockage d’informations, et d’effectuer des tâches informatiques grâce à l’évolution contrôlée d’un grand nombre de bits quantiques. Comparaison entre l'informatique quantique et l'informatique traditionnelle (1) Expression de l'information En informatique traditionnelle, l'unité de fonctionnement de l'ordinateur est un rapport de 0 ou 1 […]
Un ordinateur quantique est un appareil qui utilise la logique quantique pour effectuer des calculs à usage général. Il s’agit d’une forme d’implémentation spécifique de l’informatique quantique.
Le réseau de neurones quantiques (QNN) est un réseau composé de plusieurs neurones quantiques selon une certaine structure topologique.
La robustesse fait référence à la capacité d'un système informatique à gérer les erreurs lors de l'exécution et à la capacité d'un algorithme à continuer à fonctionner normalement lorsqu'il rencontre des anomalies telles que la saisie et le calcul.
L'apprentissage supervisé est une méthode d'apprentissage automatique dans laquelle la sortie est liée à l'entrée. Un modèle peut être appris ou établi à partir des données de formation et de nouvelles instances peuvent être déduites sur la base de ce modèle.
Le risque structurel est un compromis entre le risque empirique et le risque attendu. Un terme de régularisation (terme de pénalité) est ajouté après la fonction de risque empirique pour obtenir le risque structurel.
La minimisation des risques structurels (SRM) est un principe inductif de l’apprentissage automatique. Il est souvent utilisé comme stratégie pour éviter le surapprentissage.
Un réseau neuronal à propagation directe est un réseau neuronal artificiel relativement simple dont les paramètres internes se propagent de manière unidirectionnelle de la couche d'entrée à la couche de sortie. Contrairement à un réseau neuronal récursif, il ne forme pas de boucle dirigée en interne. Le feedforward est également appelé forward. Du point de vue du flux de signal, une fois que le signal d'entrée entre dans le réseau, le flux de signal est unidirectionnel.
L'échantillonnage est une méthode statistique inférentielle couramment utilisée. Il s’agit d’extraire une partie des individus de la population cible (population ou population parente) comme échantillon. En observant un ou plusieurs attributs de l'échantillon, on obtient une estimation avec une certaine fiabilité des caractéristiques quantitatives de la population sur la base des données obtenues, permettant ainsi une compréhension de la population.
L'analyse des sentiments est une méthode couramment utilisée dans le traitement du langage naturel, qui repose sur l'analyse lexicale du texte pour déterminer les émotions spécifiques qu'il contient. L'analyse des sentiments est similaire à l'analyse des sentiments, mais l'analyse des sentiments contient davantage de types d'informations émotionnelles. Le dictionnaire des sentiments officiellement publié par le Conseil national de recherches du Canada contient les 8 émotions suivantes : Colère […]
L’école des fréquences croit que le monde est déterministe et qu’il existe une ontologie dont la valeur de vérité ne change pas. Le but de l’école de fréquence est de trouver la valeur de vérité ou sa portée. L’école des fréquences croit qu’il doit y avoir un mécanisme profond derrière les événements aléatoires. Bien que les événements eux-mêmes soient aléatoires, ce mécanisme est certain. L’école bayésienne est différente de l’école fréquentiste, qui […]
L’erreur d’entraînement est l’erreur qui se produit dans les données d’entraînement. est la perte moyenne du modèle sur les données d'entraînement.
L'espérance maximale est un algorithme permettant de trouver des estimations de vraisemblance maximale, ou des estimations a posteriori maximales, de paramètres dans un modèle de probabilité où le modèle de probabilité est basé sur une variable dépendante non observable. L'algorithme d'espérance maximale est couramment utilisé dans le domaine du clustering de données dans l'apprentissage automatique et la vision par ordinateur. Il est calculé en deux étapes : Calculer l'espérance E : Utiliser les estimations existantes des variables cachées […]
Le surapprentissage est un phénomène d’apprentissage automatique. Il s'agit de la situation dans laquelle certains attributs de l'échantillon qui ne sont pas nécessaires à la classification sont appris. Dans ce cas, le modèle d’arbre de décision appris n’est pas le modèle optimal et entraînera une diminution des performances de généralisation.
La perte attendue est la capacité prédictive de tous les échantillons et est un concept global ; le risque empirique est un concept local qui représente uniquement la capacité prédictive de la fonction de décision pour les échantillons de l'ensemble de données d'apprentissage. Risque empirique et risque attendu Le risque empirique est local. En minimisant la fonction de perte de tous les points d’échantillonnage dans l’ensemble d’apprentissage, le risque empirique est localement optimal et peut être obtenu de manière réaliste. […]
Naive Bayes Classifier (NBC) est un classificateur de probabilité conditionnelle basé sur Naive Bayes.
Naive Bayes fait référence à la prédiction de la classification basée uniquement sur la probabilité d'apparition de chaque catégorie. Il s'agit d'un algorithme de classification basé sur la théorie des probabilités. L'algorithme est basé sur la formule bayésienne.
Le test t apparié est un test t couramment utilisé. Il s’agit d’obtenir deux groupes d’échantillons dans des conditions différentes à partir de la même population pour analyse afin d’évaluer si les différentes conditions ont un impact significatif. Des conditions différentes peuvent faire référence à des environnements de stockage différents, à des systèmes de mesure différents, etc.
Le sous-ajustement fait référence à une situation dans laquelle le modèle ne correspond pas bien aux données d’entraînement. Il est généralement utilisé pour évaluer la capacité d’apprentissage et de généralisation du modèle.
Définir un classificateur revient à construire un modèle de classification basé sur des données existantes. Ce modèle peut mapper les enregistrements de données dans la base de données à l'une des catégories données, afin d'être appliqué à la prédiction de données. La construction et la mise en œuvre du classificateur La construction et la mise en œuvre du classificateur passent généralement par les étapes suivantes : Sélectionner des échantillons (y compris des échantillons positifs et des échantillons négatifs […]
Le poids est un concept relatif et fait référence à un certain indicateur. Le poids d’un indicateur fait référence à l’importance relative de l’indicateur dans l’évaluation globale.
Le sous-échantillonnage est une méthode permettant d’éliminer certains échantillons pour atténuer le déséquilibre des classes. C'est-à-dire sous-échantillonner de manière appropriée les catégories avec un grand nombre d'échantillons (catégories majoritaires) dans l'ensemble d'apprentissage.
La marge souple est une méthode utilisée pour traiter les problèmes linéaires inséparables et réduire l'impact du bruit. La marge souple est la pratique consistant à autoriser certains points d’erreur dans la classification.
Une fonction de base radiale (RBF) est une fonction scalaire qui est radialement symétrique. Elle est généralement définie comme la distance entre un point X dans l'espace et un centre Xc Une fonction monotone de la distance entre eux. On peut l'écrire comme K ( || X – X c || ), son effet est souvent local, c'est-à-dire lorsque X est loin de Xc La valeur de la fonction est très petite.
L'informatique quantique est un nouveau type de méthode de calcul basée sur les effets quantiques. Le principe de base est d’utiliser des bits quantiques comme unités de codage et de stockage d’informations, et d’effectuer des tâches informatiques grâce à l’évolution contrôlée d’un grand nombre de bits quantiques. Comparaison entre l'informatique quantique et l'informatique traditionnelle (1) Expression de l'information En informatique traditionnelle, l'unité de fonctionnement de l'ordinateur est un rapport de 0 ou 1 […]
Un ordinateur quantique est un appareil qui utilise la logique quantique pour effectuer des calculs à usage général. Il s’agit d’une forme d’implémentation spécifique de l’informatique quantique.
Le réseau de neurones quantiques (QNN) est un réseau composé de plusieurs neurones quantiques selon une certaine structure topologique.
La robustesse fait référence à la capacité d'un système informatique à gérer les erreurs lors de l'exécution et à la capacité d'un algorithme à continuer à fonctionner normalement lorsqu'il rencontre des anomalies telles que la saisie et le calcul.
L'apprentissage supervisé est une méthode d'apprentissage automatique dans laquelle la sortie est liée à l'entrée. Un modèle peut être appris ou établi à partir des données de formation et de nouvelles instances peuvent être déduites sur la base de ce modèle.
Le risque structurel est un compromis entre le risque empirique et le risque attendu. Un terme de régularisation (terme de pénalité) est ajouté après la fonction de risque empirique pour obtenir le risque structurel.
La minimisation des risques structurels (SRM) est un principe inductif de l’apprentissage automatique. Il est souvent utilisé comme stratégie pour éviter le surapprentissage.