Command Palette
Search for a command to run...
Wiki
Glossaire du Machine Learning : Explorez les définitions et explications des concepts clés de l'IA et du ML
Les conteneurs cloud sont une technologie utilisée pour déployer, exécuter et gérer des applications dans un environnement cloud. Ils fournissent un moyen léger et portable d'encapsuler une application et ses dépendances dans un environnement d'exécution autonome.
La quantification des modèles peut réduire l’empreinte mémoire et les exigences de calcul des modèles de réseaux neuronaux profonds. La quantification des poids est une technique de quantification courante qui consiste à convertir les poids et les activations d'un réseau neuronal de nombres à virgule flottante de haute précision vers un format de précision inférieure tel que des entiers de 16 bits ou 8 bits.
La perte de triplet est une fonction de perte pour l'apprentissage en profondeur, qui fait référence à la minimisation de la distance entre le point d'ancrage et l'échantillon positif avec la même identité, et à la minimisation de la distance entre le point d'ancrage et l'échantillon négatif avec des identités différentes.
Les opérations sur les grands modèles de langage (LLMOps) sont la pratique, les techniques et les outils pour la gestion opérationnelle des grands modèles de langage dans les environnements de production. LLMOps est spécifiquement conçu pour utiliser des outils et des méthodes pour gérer et automatiser le cycle de vie de LLM, du réglage fin à la maintenance.
La gravité des données fait référence à la capacité d’un corps de données à attirer des applications, des services et d’autres données. La qualité et la quantité des données augmenteront au fil du temps, attirant davantage d’applications et de services à se connecter à ces données.
L'accumulation de gradient est un mécanisme permettant de diviser un lot d'échantillons utilisé pour entraîner un réseau neuronal en plusieurs petits lots d'échantillons exécutés séquentiellement.
La validation du modèle est le processus d’évaluation des performances d’un modèle d’apprentissage automatique (ML) sur un ensemble de données distinct de l’ensemble de données d’entraînement. Il s’agit d’une étape importante dans le processus de développement du modèle ML, car elle permet de garantir que le modèle se généralise à de nouvelles données invisibles et ne s’adapte pas aux données d’entraînement.
L'échantillonnage basé sur la mise en commun est une méthode d'apprentissage actif populaire qui sélectionne des exemples informatifs à étiqueter. Un pool de données non étiquetées est créé et le modèle sélectionne les exemples les plus informatifs pour l'annotation humaine. Ces exemples étiquetés sont utilisés pour recycler le modèle, et le processus est répété.
Bot Frame est utilisé pour créer des robots et définir leurs comportements.
Les paramètres du modèle sont des variables qui contrôlent le comportement d’un modèle d’apprentissage automatique (ML). Ils sont souvent formés sur la base de données et font des prédictions ou des choix basés sur des faits nouveaux et imprévus. Les paramètres du modèle sont une partie importante d’un modèle d’apprentissage automatique car ils ont un impact significatif sur la précision et les performances du modèle.
Le bruit est un terme utilisé pour décrire des informations indésirables ou non pertinentes dans une image ou une vidéo. Cela peut être dû à divers facteurs, notamment le bruit du capteur, les artefacts de compression et les facteurs environnementaux tels que les conditions d'éclairage et les reflets. Le bruit peut gravement dégrader la qualité et la clarté d’une image ou d’une vidéo et peut rendre plus difficile l’analyse ou l’interprétation précise du contenu de l’image.
La segmentation panoptique est une tâche de vision par ordinateur qui consiste à segmenter une image ou une vidéo en différents objets et leurs parties respectives et à étiqueter chaque pixel avec la classe correspondante.
Dans l'apprentissage automatique, les erreurs de type 2 (également appelées faux négatifs) se produisent lorsqu'un modèle prédit à tort qu'une condition ou un attribut spécifique n'existe pas alors qu'il existe réellement.
Dans l'apprentissage automatique, les erreurs de type 1, également appelées faux positifs (FP), se produisent lorsqu'un modèle prédit de manière incorrecte la présence d'une condition ou d'un attribut alors qu'il ne le fait pas réellement.
Un modèle pré-entraîné est un modèle d’apprentissage automatique (ML) qui a été formé sur un grand ensemble de données et peut être affiné pour une tâche spécifique. Les modèles pré-entraînés sont souvent utilisés comme point de départ pour le développement de modèles ML ; ils fournissent un ensemble initial de pondérations et de biais qui peuvent être ajustés avec précision pour une tâche spécifique.
La précision du modèle, également appelée exactitude du modèle, est une mesure de la capacité d'un modèle d'apprentissage automatique (ML) à faire des prédictions ou des décisions basées sur des données. Il s’agit d’une mesure courante pour évaluer les performances des modèles ML et peut être utilisée pour comparer les performances de différents modèles ou pour évaluer l’efficacité d’un modèle spécifique pour une tâche donnée.
Dans la branche des mathématiques connue sous le nom d'analyse numérique, l'interpolation polynomiale est le processus d'interpolation d'un ensemble donné de données à l'aide d'un polynôme. En d’autres termes, pour un ensemble de données donné (comme les données d’échantillonnage), l’objectif est de trouver un polynôme qui passe par ces points de données.
Dans le domaine de l’apprentissage automatique (ML), l’interpolation est le processus d’estimation de la valeur d’une fonction ou d’un ensemble de données à des points situés entre des points de données connus. L'interpolation est souvent utilisée pour combler les valeurs manquantes dans un ensemble de données ou pour supprimer le bruit ou les irrégularités dans les données.
Dans l’apprentissage automatique (ML), le taux d’apprentissage est un hyperparamètre qui détermine la taille du pas de mise à jour des paramètres du modèle pendant la formation.
Le point clé est un concept très courant dans le domaine de la vision par ordinateur. Les points clés sont des points uniques ou saillants dans une image ou une vidéo qui peuvent être utilisés pour identifier, décrire ou faire correspondre des objets ou des caractéristiques d'une scène.
La précision moyenne moyenne (mAP) est une mesure de performance largement utilisée dans les tâches de détection d'objets dans l'apprentissage automatique.
Le cycle de vie de l’apprentissage automatique (ML) est le processus de développement et de déploiement de modèles ML pour résoudre des problèmes du monde réel. Cela implique généralement une série d’étapes comprenant la préparation des données, la formation et l’évaluation du modèle, le déploiement du modèle, la surveillance du modèle et la maintenance.
Dans le domaine de l’apprentissage automatique (ML), les erreurs d’étiquetage font référence à des étiquettes incorrectes ou inexactes attribuées à des exemples dans un ensemble de données.
Les étiquettes en vision par ordinateur sont des annotations textuelles ou numériques attribuées à des objets ou à des régions d'intérêt dans des images ou des vidéos.
Les conteneurs cloud sont une technologie utilisée pour déployer, exécuter et gérer des applications dans un environnement cloud. Ils fournissent un moyen léger et portable d'encapsuler une application et ses dépendances dans un environnement d'exécution autonome.
La quantification des modèles peut réduire l’empreinte mémoire et les exigences de calcul des modèles de réseaux neuronaux profonds. La quantification des poids est une technique de quantification courante qui consiste à convertir les poids et les activations d'un réseau neuronal de nombres à virgule flottante de haute précision vers un format de précision inférieure tel que des entiers de 16 bits ou 8 bits.
La perte de triplet est une fonction de perte pour l'apprentissage en profondeur, qui fait référence à la minimisation de la distance entre le point d'ancrage et l'échantillon positif avec la même identité, et à la minimisation de la distance entre le point d'ancrage et l'échantillon négatif avec des identités différentes.
Les opérations sur les grands modèles de langage (LLMOps) sont la pratique, les techniques et les outils pour la gestion opérationnelle des grands modèles de langage dans les environnements de production. LLMOps est spécifiquement conçu pour utiliser des outils et des méthodes pour gérer et automatiser le cycle de vie de LLM, du réglage fin à la maintenance.
La gravité des données fait référence à la capacité d’un corps de données à attirer des applications, des services et d’autres données. La qualité et la quantité des données augmenteront au fil du temps, attirant davantage d’applications et de services à se connecter à ces données.
L'accumulation de gradient est un mécanisme permettant de diviser un lot d'échantillons utilisé pour entraîner un réseau neuronal en plusieurs petits lots d'échantillons exécutés séquentiellement.
La validation du modèle est le processus d’évaluation des performances d’un modèle d’apprentissage automatique (ML) sur un ensemble de données distinct de l’ensemble de données d’entraînement. Il s’agit d’une étape importante dans le processus de développement du modèle ML, car elle permet de garantir que le modèle se généralise à de nouvelles données invisibles et ne s’adapte pas aux données d’entraînement.
L'échantillonnage basé sur la mise en commun est une méthode d'apprentissage actif populaire qui sélectionne des exemples informatifs à étiqueter. Un pool de données non étiquetées est créé et le modèle sélectionne les exemples les plus informatifs pour l'annotation humaine. Ces exemples étiquetés sont utilisés pour recycler le modèle, et le processus est répété.
Bot Frame est utilisé pour créer des robots et définir leurs comportements.
Les paramètres du modèle sont des variables qui contrôlent le comportement d’un modèle d’apprentissage automatique (ML). Ils sont souvent formés sur la base de données et font des prédictions ou des choix basés sur des faits nouveaux et imprévus. Les paramètres du modèle sont une partie importante d’un modèle d’apprentissage automatique car ils ont un impact significatif sur la précision et les performances du modèle.
Le bruit est un terme utilisé pour décrire des informations indésirables ou non pertinentes dans une image ou une vidéo. Cela peut être dû à divers facteurs, notamment le bruit du capteur, les artefacts de compression et les facteurs environnementaux tels que les conditions d'éclairage et les reflets. Le bruit peut gravement dégrader la qualité et la clarté d’une image ou d’une vidéo et peut rendre plus difficile l’analyse ou l’interprétation précise du contenu de l’image.
La segmentation panoptique est une tâche de vision par ordinateur qui consiste à segmenter une image ou une vidéo en différents objets et leurs parties respectives et à étiqueter chaque pixel avec la classe correspondante.
Dans l'apprentissage automatique, les erreurs de type 2 (également appelées faux négatifs) se produisent lorsqu'un modèle prédit à tort qu'une condition ou un attribut spécifique n'existe pas alors qu'il existe réellement.
Dans l'apprentissage automatique, les erreurs de type 1, également appelées faux positifs (FP), se produisent lorsqu'un modèle prédit de manière incorrecte la présence d'une condition ou d'un attribut alors qu'il ne le fait pas réellement.
Un modèle pré-entraîné est un modèle d’apprentissage automatique (ML) qui a été formé sur un grand ensemble de données et peut être affiné pour une tâche spécifique. Les modèles pré-entraînés sont souvent utilisés comme point de départ pour le développement de modèles ML ; ils fournissent un ensemble initial de pondérations et de biais qui peuvent être ajustés avec précision pour une tâche spécifique.
La précision du modèle, également appelée exactitude du modèle, est une mesure de la capacité d'un modèle d'apprentissage automatique (ML) à faire des prédictions ou des décisions basées sur des données. Il s’agit d’une mesure courante pour évaluer les performances des modèles ML et peut être utilisée pour comparer les performances de différents modèles ou pour évaluer l’efficacité d’un modèle spécifique pour une tâche donnée.
Dans la branche des mathématiques connue sous le nom d'analyse numérique, l'interpolation polynomiale est le processus d'interpolation d'un ensemble donné de données à l'aide d'un polynôme. En d’autres termes, pour un ensemble de données donné (comme les données d’échantillonnage), l’objectif est de trouver un polynôme qui passe par ces points de données.
Dans le domaine de l’apprentissage automatique (ML), l’interpolation est le processus d’estimation de la valeur d’une fonction ou d’un ensemble de données à des points situés entre des points de données connus. L'interpolation est souvent utilisée pour combler les valeurs manquantes dans un ensemble de données ou pour supprimer le bruit ou les irrégularités dans les données.
Dans l’apprentissage automatique (ML), le taux d’apprentissage est un hyperparamètre qui détermine la taille du pas de mise à jour des paramètres du modèle pendant la formation.
Le point clé est un concept très courant dans le domaine de la vision par ordinateur. Les points clés sont des points uniques ou saillants dans une image ou une vidéo qui peuvent être utilisés pour identifier, décrire ou faire correspondre des objets ou des caractéristiques d'une scène.
La précision moyenne moyenne (mAP) est une mesure de performance largement utilisée dans les tâches de détection d'objets dans l'apprentissage automatique.
Le cycle de vie de l’apprentissage automatique (ML) est le processus de développement et de déploiement de modèles ML pour résoudre des problèmes du monde réel. Cela implique généralement une série d’étapes comprenant la préparation des données, la formation et l’évaluation du modèle, le déploiement du modèle, la surveillance du modèle et la maintenance.
Dans le domaine de l’apprentissage automatique (ML), les erreurs d’étiquetage font référence à des étiquettes incorrectes ou inexactes attribuées à des exemples dans un ensemble de données.
Les étiquettes en vision par ordinateur sont des annotations textuelles ou numériques attribuées à des objets ou à des régions d'intérêt dans des images ou des vidéos.