Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
Dans le domaine de l'apprentissage profond, Grokking fait référence à un phénomène dans le processus de formation des réseaux neuronaux, c'est-à-dire qu'une bonne généralisation peut être obtenue même après que l'erreur de formation diminue pendant une longue période.
Les lois d'échelle dans l'apprentissage profond font référence à la relation entre une propriété fonctionnelle d'intérêt (généralement une perte de test ou une mesure de performance sur une tâche de réglage fin) et les propriétés de l'architecture ou de la procédure d'optimisation (telles que la taille du modèle, la largeur ou le calcul d'entraînement).
L'émergence dans le domaine de l'intelligence artificielle fait référence à un phénomène dans lequel des comportements ou des structures collectives complexes apparaissent à travers l'interaction d'individus ou de règles simples. En intelligence artificielle, ce type d’émergence peut faire référence à des fonctionnalités ou des comportements de haut niveau appris par le modèle qui ne sont pas directement conçus […]
L'IA explicable (XAI) est un ensemble de processus et de méthodes qui permettent aux utilisateurs humains de comprendre et de faire confiance aux résultats et aux sorties créés par les algorithmes d'apprentissage automatique.
Le calcul conditionnel est une technique permettant de réduire la quantité totale de calcul en effectuant le calcul uniquement lorsque cela est nécessaire.
La classification statistique est une méthode d’apprentissage supervisé utilisée pour classer de nouvelles observations dans l’une des catégories connues.
Variational Autoencoder (VAE) est une structure de réseau neuronal artificiel proposée par Diederik P. Kingma et Max Welling, appartenant au modèle graphique probabiliste et à la méthode bayésienne variationnelle.
La modélisation du langage masqué (MLM) est une technique d'apprentissage en profondeur largement utilisée dans les tâches de traitement du langage naturel (NLP), en particulier dans la formation de modèles Transformer tels que BERT, GPT-2 et RoBERTa.
L'ingénierie des connaissances est une branche de l'intelligence artificielle (IA) qui développe des règles et les applique aux données pour imiter les processus de pensée d'une personne experte sur un sujet particulier.
Le score d'inception (IS) est une mesure de performance objective utilisée pour évaluer la qualité des images générées ou synthétiques produites par un réseau antagoniste génératif (GAN).
La logique floue est une méthode de traitement de variables qui permet à plusieurs valeurs de vérité possibles d'être traitées par la même variable. La logique floue tente de résoudre des problèmes en utilisant un spectre ouvert et imprécis de données et d’heuristiques pour arriver à une gamme de conclusions précises.
La distance d'apparition de Fréchet (FID) est une mesure de performance où les scores FID inférieurs représentent des images de meilleure qualité générées par le générateur et sont similaires aux images réelles. Le FID est basé sur le vecteur de caractéristiques de l'image.
DALL-E est un nouveau programme d'IA développé par OpenAI qui génère des images basées sur des invites de description de texte. Il peut combiner le langage et le traitement visuel, et cette approche innovante ouvre de nouvelles possibilités dans le domaine créatif, la communication, l’éducation et plus encore. DALL-E a été lancé en janvier 2021 et est […]
LoRA (Low-Level Adaptation) est une technique de réglage fin révolutionnaire et efficace qui exploite la puissance de ces modèles avancés pour des tâches et des ensembles de données personnalisés sans solliciter les ressources ni entraîner des coûts prohibitifs.
La CBR fonctionne en récupérant des cas similaires du passé et en les adaptant à la situation actuelle pour prendre une décision ou résoudre un problème.
L'apprentissage automatique contradictoire est une méthode d'apprentissage automatique qui vise à tromper les modèles d'apprentissage automatique en fournissant des entrées trompeuses.
La recherche cognitive représente la prochaine génération de recherche d'entreprise, utilisant des techniques d'intelligence artificielle (IA) pour affiner les requêtes de recherche des utilisateurs et extraire des informations pertinentes à partir de plusieurs ensembles de données disparates.
La qualité du code décrit l’évaluation globale de l’efficacité, de la fiabilité et de la maintenabilité d’un morceau de code logiciel. Les principales qualités de la qualité du code incluent la lisibilité, la clarté, la fiabilité, la sécurité et la modularité. Ces qualités rendent le code facile à comprendre, à modifier, à manipuler et à déboguer.
Les conteneurs cloud sont une technologie utilisée pour déployer, exécuter et gérer des applications dans un environnement cloud. Ils fournissent un moyen léger et portable d'encapsuler une application et ses dépendances dans un environnement d'exécution autonome.
La quantification des modèles peut réduire l’empreinte mémoire et les exigences de calcul des modèles de réseaux neuronaux profonds. La quantification des poids est une technique de quantification courante qui consiste à convertir les poids et les activations d'un réseau neuronal de nombres à virgule flottante de haute précision vers un format de précision inférieure tel que des entiers de 16 bits ou 8 bits.
La perte de triplet est une fonction de perte pour l'apprentissage en profondeur, qui fait référence à la minimisation de la distance entre le point d'ancrage et l'échantillon positif avec la même identité, et à la minimisation de la distance entre le point d'ancrage et l'échantillon négatif avec des identités différentes.
Les opérations sur les grands modèles de langage (LLMOps) sont la pratique, les techniques et les outils pour la gestion opérationnelle des grands modèles de langage dans les environnements de production. LLMOps est spécifiquement conçu pour utiliser des outils et des méthodes pour gérer et automatiser le cycle de vie de LLM, du réglage fin à la maintenance.
La gravité des données fait référence à la capacité d’un corps de données à attirer des applications, des services et d’autres données. La qualité et la quantité des données augmenteront au fil du temps, attirant davantage d’applications et de services à se connecter à ces données.
L'accumulation de gradient est un mécanisme permettant de diviser un lot d'échantillons utilisé pour entraîner un réseau neuronal en plusieurs petits lots d'échantillons exécutés séquentiellement.
Dans le domaine de l'apprentissage profond, Grokking fait référence à un phénomène dans le processus de formation des réseaux neuronaux, c'est-à-dire qu'une bonne généralisation peut être obtenue même après que l'erreur de formation diminue pendant une longue période.
Les lois d'échelle dans l'apprentissage profond font référence à la relation entre une propriété fonctionnelle d'intérêt (généralement une perte de test ou une mesure de performance sur une tâche de réglage fin) et les propriétés de l'architecture ou de la procédure d'optimisation (telles que la taille du modèle, la largeur ou le calcul d'entraînement).
L'émergence dans le domaine de l'intelligence artificielle fait référence à un phénomène dans lequel des comportements ou des structures collectives complexes apparaissent à travers l'interaction d'individus ou de règles simples. En intelligence artificielle, ce type d’émergence peut faire référence à des fonctionnalités ou des comportements de haut niveau appris par le modèle qui ne sont pas directement conçus […]
L'IA explicable (XAI) est un ensemble de processus et de méthodes qui permettent aux utilisateurs humains de comprendre et de faire confiance aux résultats et aux sorties créés par les algorithmes d'apprentissage automatique.
Le calcul conditionnel est une technique permettant de réduire la quantité totale de calcul en effectuant le calcul uniquement lorsque cela est nécessaire.
La classification statistique est une méthode d’apprentissage supervisé utilisée pour classer de nouvelles observations dans l’une des catégories connues.
Variational Autoencoder (VAE) est une structure de réseau neuronal artificiel proposée par Diederik P. Kingma et Max Welling, appartenant au modèle graphique probabiliste et à la méthode bayésienne variationnelle.
La modélisation du langage masqué (MLM) est une technique d'apprentissage en profondeur largement utilisée dans les tâches de traitement du langage naturel (NLP), en particulier dans la formation de modèles Transformer tels que BERT, GPT-2 et RoBERTa.
L'ingénierie des connaissances est une branche de l'intelligence artificielle (IA) qui développe des règles et les applique aux données pour imiter les processus de pensée d'une personne experte sur un sujet particulier.
Le score d'inception (IS) est une mesure de performance objective utilisée pour évaluer la qualité des images générées ou synthétiques produites par un réseau antagoniste génératif (GAN).
La logique floue est une méthode de traitement de variables qui permet à plusieurs valeurs de vérité possibles d'être traitées par la même variable. La logique floue tente de résoudre des problèmes en utilisant un spectre ouvert et imprécis de données et d’heuristiques pour arriver à une gamme de conclusions précises.
La distance d'apparition de Fréchet (FID) est une mesure de performance où les scores FID inférieurs représentent des images de meilleure qualité générées par le générateur et sont similaires aux images réelles. Le FID est basé sur le vecteur de caractéristiques de l'image.
DALL-E est un nouveau programme d'IA développé par OpenAI qui génère des images basées sur des invites de description de texte. Il peut combiner le langage et le traitement visuel, et cette approche innovante ouvre de nouvelles possibilités dans le domaine créatif, la communication, l’éducation et plus encore. DALL-E a été lancé en janvier 2021 et est […]
LoRA (Low-Level Adaptation) est une technique de réglage fin révolutionnaire et efficace qui exploite la puissance de ces modèles avancés pour des tâches et des ensembles de données personnalisés sans solliciter les ressources ni entraîner des coûts prohibitifs.
La CBR fonctionne en récupérant des cas similaires du passé et en les adaptant à la situation actuelle pour prendre une décision ou résoudre un problème.
L'apprentissage automatique contradictoire est une méthode d'apprentissage automatique qui vise à tromper les modèles d'apprentissage automatique en fournissant des entrées trompeuses.
La recherche cognitive représente la prochaine génération de recherche d'entreprise, utilisant des techniques d'intelligence artificielle (IA) pour affiner les requêtes de recherche des utilisateurs et extraire des informations pertinentes à partir de plusieurs ensembles de données disparates.
La qualité du code décrit l’évaluation globale de l’efficacité, de la fiabilité et de la maintenabilité d’un morceau de code logiciel. Les principales qualités de la qualité du code incluent la lisibilité, la clarté, la fiabilité, la sécurité et la modularité. Ces qualités rendent le code facile à comprendre, à modifier, à manipuler et à déboguer.
Les conteneurs cloud sont une technologie utilisée pour déployer, exécuter et gérer des applications dans un environnement cloud. Ils fournissent un moyen léger et portable d'encapsuler une application et ses dépendances dans un environnement d'exécution autonome.
La quantification des modèles peut réduire l’empreinte mémoire et les exigences de calcul des modèles de réseaux neuronaux profonds. La quantification des poids est une technique de quantification courante qui consiste à convertir les poids et les activations d'un réseau neuronal de nombres à virgule flottante de haute précision vers un format de précision inférieure tel que des entiers de 16 bits ou 8 bits.
La perte de triplet est une fonction de perte pour l'apprentissage en profondeur, qui fait référence à la minimisation de la distance entre le point d'ancrage et l'échantillon positif avec la même identité, et à la minimisation de la distance entre le point d'ancrage et l'échantillon négatif avec des identités différentes.
Les opérations sur les grands modèles de langage (LLMOps) sont la pratique, les techniques et les outils pour la gestion opérationnelle des grands modèles de langage dans les environnements de production. LLMOps est spécifiquement conçu pour utiliser des outils et des méthodes pour gérer et automatiser le cycle de vie de LLM, du réglage fin à la maintenance.
La gravité des données fait référence à la capacité d’un corps de données à attirer des applications, des services et d’autres données. La qualité et la quantité des données augmenteront au fil du temps, attirant davantage d’applications et de services à se connecter à ces données.
L'accumulation de gradient est un mécanisme permettant de diviser un lot d'échantillons utilisé pour entraîner un réseau neuronal en plusieurs petits lots d'échantillons exécutés séquentiellement.