Command Palette
Search for a command to run...
Wiki
Nous avons compilé des centaines d'entrées connexes pour vous aider à comprendre "l'intelligence artificielle"
Le calcul conditionnel est une technique permettant de réduire la quantité totale de calcul en effectuant le calcul uniquement lorsque cela est nécessaire.
La classification statistique est une méthode d’apprentissage supervisé utilisée pour classer de nouvelles observations dans l’une des catégories connues.
Variational Autoencoder (VAE) est une structure de réseau neuronal artificiel proposée par Diederik P. Kingma et Max Welling, appartenant au modèle graphique probabiliste et à la méthode bayésienne variationnelle.
La modélisation du langage masqué (MLM) est une technique d'apprentissage en profondeur largement utilisée dans les tâches de traitement du langage naturel (NLP), en particulier dans la formation de modèles Transformer tels que BERT, GPT-2 et RoBERTa.
L'ingénierie des connaissances est une branche de l'intelligence artificielle (IA) qui développe des règles et les applique aux données pour imiter les processus de pensée d'une personne experte sur un sujet particulier.
Le score d'inception (IS) est une mesure de performance objective utilisée pour évaluer la qualité des images générées ou synthétiques produites par un réseau antagoniste génératif (GAN).
La logique floue est une méthode de traitement de variables qui permet à plusieurs valeurs de vérité possibles d'être traitées par la même variable. La logique floue tente de résoudre des problèmes en utilisant un spectre ouvert et imprécis de données et d’heuristiques pour arriver à une gamme de conclusions précises.
La distance d'apparition de Fréchet (FID) est une mesure de performance où les scores FID inférieurs représentent des images de meilleure qualité générées par le générateur et sont similaires aux images réelles. Le FID est basé sur le vecteur de caractéristiques de l'image.
DALL-E est un nouveau programme d'IA développé par OpenAI qui génère des images basées sur des invites de description de texte. Il peut combiner le langage et le traitement visuel, et cette approche innovante ouvre de nouvelles possibilités dans le domaine créatif, la communication, l’éducation et plus encore. DALL-E a été lancé en janvier 2021 et est […]
LoRA (Low-Level Adaptation) est une technique de réglage fin révolutionnaire et efficace qui exploite la puissance de ces modèles avancés pour des tâches et des ensembles de données personnalisés sans solliciter les ressources ni entraîner des coûts prohibitifs.
La CBR fonctionne en récupérant des cas similaires du passé et en les adaptant à la situation actuelle pour prendre une décision ou résoudre un problème.
L'apprentissage automatique contradictoire est une méthode d'apprentissage automatique qui vise à tromper les modèles d'apprentissage automatique en fournissant des entrées trompeuses.
La recherche cognitive représente la prochaine génération de recherche d'entreprise, utilisant des techniques d'intelligence artificielle (IA) pour affiner les requêtes de recherche des utilisateurs et extraire des informations pertinentes à partir de plusieurs ensembles de données disparates.
La qualité du code décrit l’évaluation globale de l’efficacité, de la fiabilité et de la maintenabilité d’un morceau de code logiciel. Les principales qualités de la qualité du code incluent la lisibilité, la clarté, la fiabilité, la sécurité et la modularité. Ces qualités rendent le code facile à comprendre, à modifier, à manipuler et à déboguer.
Les conteneurs cloud sont une technologie utilisée pour déployer, exécuter et gérer des applications dans un environnement cloud. Ils fournissent un moyen léger et portable d'encapsuler une application et ses dépendances dans un environnement d'exécution autonome.
La quantification des modèles peut réduire l’empreinte mémoire et les exigences de calcul des modèles de réseaux neuronaux profonds. La quantification des poids est une technique de quantification courante qui consiste à convertir les poids et les activations d'un réseau neuronal de nombres à virgule flottante de haute précision vers un format de précision inférieure tel que des entiers de 16 bits ou 8 bits.
La perte de triplet est une fonction de perte pour l'apprentissage en profondeur, qui fait référence à la minimisation de la distance entre le point d'ancrage et l'échantillon positif avec la même identité, et à la minimisation de la distance entre le point d'ancrage et l'échantillon négatif avec des identités différentes.
Les opérations sur les grands modèles de langage (LLMOps) sont la pratique, les techniques et les outils pour la gestion opérationnelle des grands modèles de langage dans les environnements de production. LLMOps est spécifiquement conçu pour utiliser des outils et des méthodes pour gérer et automatiser le cycle de vie de LLM, du réglage fin à la maintenance.
La gravité des données fait référence à la capacité d’un corps de données à attirer des applications, des services et d’autres données. La qualité et la quantité des données augmenteront au fil du temps, attirant davantage d’applications et de services à se connecter à ces données.
L'accumulation de gradient est un mécanisme permettant de diviser un lot d'échantillons utilisé pour entraîner un réseau neuronal en plusieurs petits lots d'échantillons exécutés séquentiellement.
La validation du modèle est le processus d’évaluation des performances d’un modèle d’apprentissage automatique (ML) sur un ensemble de données distinct de l’ensemble de données d’entraînement. Il s’agit d’une étape importante dans le processus de développement du modèle ML, car elle permet de garantir que le modèle se généralise à de nouvelles données invisibles et ne s’adapte pas aux données d’entraînement.
L'échantillonnage basé sur la mise en commun est une méthode d'apprentissage actif populaire qui sélectionne des exemples informatifs à étiqueter. Un pool de données non étiquetées est créé et le modèle sélectionne les exemples les plus informatifs pour l'annotation humaine. Ces exemples étiquetés sont utilisés pour recycler le modèle, et le processus est répété.
Bot Frame est utilisé pour créer des robots et définir leurs comportements.
Les paramètres du modèle sont des variables qui contrôlent le comportement d’un modèle d’apprentissage automatique (ML). Ils sont souvent formés sur la base de données et font des prédictions ou des choix basés sur des faits nouveaux et imprévus. Les paramètres du modèle sont une partie importante d’un modèle d’apprentissage automatique car ils ont un impact significatif sur la précision et les performances du modèle.