Command Palette
Search for a command to run...
Wiki
Glossaire du Machine Learning : Explorez les définitions et explications des concepts clés de l'IA et du ML
Le théorème de représentation de Kolmogorov-Arnold facilite l'analyse des systèmes dynamiques complexes
L’apprentissage des modèles d’action englobe un processus complexe dans le domaine de l’intelligence artificielle où les modèles sont développés essentiellement pour prédire les effets des actions d’un agent dans un environnement.
Le taux de vrais positifs (TPR) est une mesure utilisée dans les statistiques, l'apprentissage automatique et le diagnostic médical pour évaluer les performances des modèles de classification binaire. Il représente la proportion de cas positifs réels qui ont été correctement identifiés ou classés comme positifs par le modèle. Le TPR est également appelé sensibilité, rappel ou […]
Les jetons de pépin sont des mots qui, dans les grands modèles de langage, sont censés contribuer au bon fonctionnement du modèle, mais qui produisent des résultats anormaux. Une équipe de recherche de l'Université des sciences et technologies de Huazhong, de l'Université technologique de Nanyang et d'autres universités a publié une étude en 2024 intitulée « Jetons de pépin dans […] ».
Les modèles linguistiques multimodaux de grande taille combinent la puissance du traitement du langage naturel (TAL) avec d'autres modalités telles que les images, l'audio ou la vidéo.
Comparé à d’autres méthodes de mise à niveau LLM utilisant un mélange d’experts, DUS ne nécessite pas de changements complexes pour une formation et une inférence efficaces.
Dans le domaine de l'apprentissage profond, Grokking fait référence à un phénomène dans le processus de formation des réseaux neuronaux, c'est-à-dire qu'une bonne généralisation peut être obtenue même après que l'erreur de formation diminue pendant une longue période.
Les lois d'échelle dans l'apprentissage profond font référence à la relation entre une propriété fonctionnelle d'intérêt (généralement une perte de test ou une mesure de performance sur une tâche de réglage fin) et les propriétés de l'architecture ou de la procédure d'optimisation (telles que la taille du modèle, la largeur ou le calcul d'entraînement).
L'émergence dans le domaine de l'intelligence artificielle fait référence à un phénomène dans lequel des comportements ou des structures collectives complexes apparaissent à travers l'interaction d'individus ou de règles simples. En intelligence artificielle, ce type d’émergence peut faire référence à des fonctionnalités ou des comportements de haut niveau appris par le modèle qui ne sont pas directement conçus […]
L'IA explicable (XAI) est un ensemble de processus et de méthodes qui permettent aux utilisateurs humains de comprendre et de faire confiance aux résultats et aux sorties créés par les algorithmes d'apprentissage automatique.
Le calcul conditionnel est une technique permettant de réduire la quantité totale de calcul en effectuant le calcul uniquement lorsque cela est nécessaire.
La classification statistique est une méthode d’apprentissage supervisé utilisée pour classer de nouvelles observations dans l’une des catégories connues.
Variational Autoencoder (VAE) est une structure de réseau neuronal artificiel proposée par Diederik P. Kingma et Max Welling, appartenant au modèle graphique probabiliste et à la méthode bayésienne variationnelle.
La modélisation du langage masqué (MLM) est une technique d'apprentissage en profondeur largement utilisée dans les tâches de traitement du langage naturel (NLP), en particulier dans la formation de modèles Transformer tels que BERT, GPT-2 et RoBERTa.
L'ingénierie des connaissances est une branche de l'intelligence artificielle (IA) qui développe des règles et les applique aux données pour imiter les processus de pensée d'une personne experte sur un sujet particulier.
Le score d'inception (IS) est une mesure de performance objective utilisée pour évaluer la qualité des images générées ou synthétiques produites par un réseau antagoniste génératif (GAN).
La logique floue est une méthode de traitement de variables qui permet à plusieurs valeurs de vérité possibles d'être traitées par la même variable. La logique floue tente de résoudre des problèmes en utilisant un spectre ouvert et imprécis de données et d’heuristiques pour arriver à une gamme de conclusions précises.
La distance d'apparition de Fréchet (FID) est une mesure de performance où les scores FID inférieurs représentent des images de meilleure qualité générées par le générateur et sont similaires aux images réelles. Le FID est basé sur le vecteur de caractéristiques de l'image.
DALL-E est un nouveau programme d'IA développé par OpenAI qui génère des images basées sur des invites de description de texte. Il peut combiner le langage et le traitement visuel, et cette approche innovante ouvre de nouvelles possibilités dans le domaine créatif, la communication, l’éducation et plus encore. DALL-E a été lancé en janvier 2021 et est […]
LoRA (Low-Level Adaptation) est une technique de réglage fin révolutionnaire et efficace qui exploite la puissance de ces modèles avancés pour des tâches et des ensembles de données personnalisés sans solliciter les ressources ni entraîner des coûts prohibitifs.
La CBR fonctionne en récupérant des cas similaires du passé et en les adaptant à la situation actuelle pour prendre une décision ou résoudre un problème.
L'apprentissage automatique contradictoire est une méthode d'apprentissage automatique qui vise à tromper les modèles d'apprentissage automatique en fournissant des entrées trompeuses.
La recherche cognitive représente la prochaine génération de recherche d'entreprise, utilisant des techniques d'intelligence artificielle (IA) pour affiner les requêtes de recherche des utilisateurs et extraire des informations pertinentes à partir de plusieurs ensembles de données disparates.
La qualité du code décrit l’évaluation globale de l’efficacité, de la fiabilité et de la maintenabilité d’un morceau de code logiciel. Les principales qualités de la qualité du code incluent la lisibilité, la clarté, la fiabilité, la sécurité et la modularité. Ces qualités rendent le code facile à comprendre, à modifier, à manipuler et à déboguer.
Le théorème de représentation de Kolmogorov-Arnold facilite l'analyse des systèmes dynamiques complexes
L’apprentissage des modèles d’action englobe un processus complexe dans le domaine de l’intelligence artificielle où les modèles sont développés essentiellement pour prédire les effets des actions d’un agent dans un environnement.
Le taux de vrais positifs (TPR) est une mesure utilisée dans les statistiques, l'apprentissage automatique et le diagnostic médical pour évaluer les performances des modèles de classification binaire. Il représente la proportion de cas positifs réels qui ont été correctement identifiés ou classés comme positifs par le modèle. Le TPR est également appelé sensibilité, rappel ou […]
Les jetons de pépin sont des mots qui, dans les grands modèles de langage, sont censés contribuer au bon fonctionnement du modèle, mais qui produisent des résultats anormaux. Une équipe de recherche de l'Université des sciences et technologies de Huazhong, de l'Université technologique de Nanyang et d'autres universités a publié une étude en 2024 intitulée « Jetons de pépin dans […] ».
Les modèles linguistiques multimodaux de grande taille combinent la puissance du traitement du langage naturel (TAL) avec d'autres modalités telles que les images, l'audio ou la vidéo.
Comparé à d’autres méthodes de mise à niveau LLM utilisant un mélange d’experts, DUS ne nécessite pas de changements complexes pour une formation et une inférence efficaces.
Dans le domaine de l'apprentissage profond, Grokking fait référence à un phénomène dans le processus de formation des réseaux neuronaux, c'est-à-dire qu'une bonne généralisation peut être obtenue même après que l'erreur de formation diminue pendant une longue période.
Les lois d'échelle dans l'apprentissage profond font référence à la relation entre une propriété fonctionnelle d'intérêt (généralement une perte de test ou une mesure de performance sur une tâche de réglage fin) et les propriétés de l'architecture ou de la procédure d'optimisation (telles que la taille du modèle, la largeur ou le calcul d'entraînement).
L'émergence dans le domaine de l'intelligence artificielle fait référence à un phénomène dans lequel des comportements ou des structures collectives complexes apparaissent à travers l'interaction d'individus ou de règles simples. En intelligence artificielle, ce type d’émergence peut faire référence à des fonctionnalités ou des comportements de haut niveau appris par le modèle qui ne sont pas directement conçus […]
L'IA explicable (XAI) est un ensemble de processus et de méthodes qui permettent aux utilisateurs humains de comprendre et de faire confiance aux résultats et aux sorties créés par les algorithmes d'apprentissage automatique.
Le calcul conditionnel est une technique permettant de réduire la quantité totale de calcul en effectuant le calcul uniquement lorsque cela est nécessaire.
La classification statistique est une méthode d’apprentissage supervisé utilisée pour classer de nouvelles observations dans l’une des catégories connues.
Variational Autoencoder (VAE) est une structure de réseau neuronal artificiel proposée par Diederik P. Kingma et Max Welling, appartenant au modèle graphique probabiliste et à la méthode bayésienne variationnelle.
La modélisation du langage masqué (MLM) est une technique d'apprentissage en profondeur largement utilisée dans les tâches de traitement du langage naturel (NLP), en particulier dans la formation de modèles Transformer tels que BERT, GPT-2 et RoBERTa.
L'ingénierie des connaissances est une branche de l'intelligence artificielle (IA) qui développe des règles et les applique aux données pour imiter les processus de pensée d'une personne experte sur un sujet particulier.
Le score d'inception (IS) est une mesure de performance objective utilisée pour évaluer la qualité des images générées ou synthétiques produites par un réseau antagoniste génératif (GAN).
La logique floue est une méthode de traitement de variables qui permet à plusieurs valeurs de vérité possibles d'être traitées par la même variable. La logique floue tente de résoudre des problèmes en utilisant un spectre ouvert et imprécis de données et d’heuristiques pour arriver à une gamme de conclusions précises.
La distance d'apparition de Fréchet (FID) est une mesure de performance où les scores FID inférieurs représentent des images de meilleure qualité générées par le générateur et sont similaires aux images réelles. Le FID est basé sur le vecteur de caractéristiques de l'image.
DALL-E est un nouveau programme d'IA développé par OpenAI qui génère des images basées sur des invites de description de texte. Il peut combiner le langage et le traitement visuel, et cette approche innovante ouvre de nouvelles possibilités dans le domaine créatif, la communication, l’éducation et plus encore. DALL-E a été lancé en janvier 2021 et est […]
LoRA (Low-Level Adaptation) est une technique de réglage fin révolutionnaire et efficace qui exploite la puissance de ces modèles avancés pour des tâches et des ensembles de données personnalisés sans solliciter les ressources ni entraîner des coûts prohibitifs.
La CBR fonctionne en récupérant des cas similaires du passé et en les adaptant à la situation actuelle pour prendre une décision ou résoudre un problème.
L'apprentissage automatique contradictoire est une méthode d'apprentissage automatique qui vise à tromper les modèles d'apprentissage automatique en fournissant des entrées trompeuses.
La recherche cognitive représente la prochaine génération de recherche d'entreprise, utilisant des techniques d'intelligence artificielle (IA) pour affiner les requêtes de recherche des utilisateurs et extraire des informations pertinentes à partir de plusieurs ensembles de données disparates.
La qualité du code décrit l’évaluation globale de l’efficacité, de la fiabilité et de la maintenabilité d’un morceau de code logiciel. Les principales qualités de la qualité du code incluent la lisibilité, la clarté, la fiabilité, la sécurité et la modularité. Ces qualités rendent le code facile à comprendre, à modifier, à manipuler et à déboguer.