Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
La technologie d'éclaboussure gaussienne tridimensionnelle est une technologie d'infographie avancée, qui a des applications importantes dans le rendu de nuages de points, la visualisation de données de volume et la reconstruction de volume. Cette technologie permet d'obtenir des rendus de meilleure qualité en convertissant des points de données discrets, ou voxels, en une représentation de surface ou de volume continue.
Le test en mode ombre est une méthode de test utilisée dans le domaine de la conduite autonome. Il est principalement utilisé pour vérifier et évaluer les algorithmes de conduite autonome dans des environnements de trafic réels tout en garantissant qu'il n'interfère pas avec le conducteur et le trafic environnant.
Le fléau de la rareté est un problème scientifique clé dans le domaine de la conduite autonome. Cela fait référence au fait que dans les environnements de conduite réels, la probabilité d'événements critiques pour la sécurité est extrêmement faible, ce qui fait que ces événements sont extrêmement rares dans les données de conduite, ce qui rend difficile pour les modèles d'apprentissage en profondeur d'apprendre les caractéristiques de ces événements.
La perte de diffusion est une fonction de perte liée au modèle de diffusion, qui est utilisée pendant le processus de formation pour guider le modèle afin d'apprendre à supprimer progressivement le bruit et à restaurer la structure d'origine des données.
Le défi de la longue traîne fait généralement référence à une classe de problèmes rencontrés dans l'apprentissage automatique et l'apprentissage en profondeur, en particulier lorsqu'il s'agit de tâches de reconnaissance visuelle.
Le ratio de bêtise est une mesure utilisée pour évaluer la proportion d'informations absurdes ou invalides dans les réponses données par les grands modèles linguistiques (LLM).
Dans le domaine de l’intelligence artificielle, l’apprentissage tout au long de la vie fait référence à la capacité d’une machine à mettre à jour et à améliorer en permanence sa base de connaissances et ses modèles en recevant continuellement de nouvelles données et expériences.
L'indépendance matérielle fait référence aux logiciels, applications, systèmes d'exploitation ou autres types de systèmes conçus pour ne pas dépendre ou être spécifiques à une plate-forme matérielle ou à une architecture matérielle particulière.
LlamaIndex est un outil permettant de créer des index et d'interroger des documents locaux, qui agit comme un pont entre les données personnalisées et les grands modèles de langage (LLM).
Le générateur de modalités est un élément clé d'un système d'apprentissage multimodal, et son rôle principal est de générer des sorties de différentes modalités, telles que des images, des vidéos ou des audios.
Le modèle de fondation géographique du langage visuel est un modèle d’intelligence artificielle spécialement conçu pour traiter et analyser les données d’observation de la Terre.
Future Multi-Predictor Mixture est un composant de modèle pour la prévision de séries chronologiques qui fait partie de l'architecture TimeMixer.
PDM est un concept théorique pour la prévision des séries chronologiques et c'est l'un des composants principaux du modèle TimeMixer.
MRL apprend des informations avec différentes granularités en optimisant les vecteurs imbriqués de faible dimension et permet à une seule intégration de s'adapter aux contraintes de calcul des tâches en aval.
Hadoop est un framework open source développé par l'Apache Software Foundation pour stocker et traiter de grandes quantités de données sur des clusters de matériel standard.
Edge AI fait référence au déploiement d'algorithmes et de modèles d'IA directement sur des appareils périphériques locaux tels que des capteurs ou des appareils Internet des objets (IoT), permettant le traitement et l'analyse des données en temps réel sans dépendre constamment de l'infrastructure cloud. En termes simples, l’IA de pointe fait référence à l’intégration de l’informatique de pointe et de l’humain […]
Un projet, un produit ou une initiative open source adopte et promeut les principes de communication ouverte, de participation collaborative, de prototypage rapide, de transparence, de méritocratie et de développement axé sur la communauté.
L'informatique neuromorphique est le processus par lequel les ordinateurs sont conçus et construits pour imiter la structure et la fonction du cerveau humain, dans le but d'utiliser des neurones et des synapses artificiels pour traiter les informations de cette manière.
L'appel de fonction est un concept de base en programmation, qui signifie effectuer une tâche spécifique en appelant une fonction définie pendant l'exécution du programme.
Le réseau neuronal à pics (SNN), à l'intersection des neurosciences et de l'intelligence artificielle, est un modèle de réseau neuronal qui simule le comportement des neurones biologiques dans le cerveau.
Le modèle par éléments finis (MEF) est une méthode de calcul numérique qui approxime le comportement physique d'une entité en discrétisant une structure physique continue en un nombre fini de petites parties, appelées « éléments ». Ces éléments peuvent être des éléments linéaires unidimensionnels, des éléments surfaciques bidimensionnels ou des volumes tridimensionnels […]
Le codage de position contextuel est un nouveau type de méthode de codage de position qui permet aux informations de position de varier en fonction des conditions de contexte.
L'apprentissage avec erreurs (LWE) est un problème très important en cryptographie et en informatique théorique, proposé par Oded Regev en 2005. Le problème LWE peut être décrit comme suit : étant donné un système d'équations linéaires, où chaque […]
En mathématiques, l'approximation de faible rang est un problème de minimisation où la fonction de coût mesure la qualité de l'ajustement entre une matrice donnée (les données) et une matrice d'approximation (les variables d'optimisation), mais le rang de la matrice d'approximation doit être réduit.
La technologie d'éclaboussure gaussienne tridimensionnelle est une technologie d'infographie avancée, qui a des applications importantes dans le rendu de nuages de points, la visualisation de données de volume et la reconstruction de volume. Cette technologie permet d'obtenir des rendus de meilleure qualité en convertissant des points de données discrets, ou voxels, en une représentation de surface ou de volume continue.
Le test en mode ombre est une méthode de test utilisée dans le domaine de la conduite autonome. Il est principalement utilisé pour vérifier et évaluer les algorithmes de conduite autonome dans des environnements de trafic réels tout en garantissant qu'il n'interfère pas avec le conducteur et le trafic environnant.
Le fléau de la rareté est un problème scientifique clé dans le domaine de la conduite autonome. Cela fait référence au fait que dans les environnements de conduite réels, la probabilité d'événements critiques pour la sécurité est extrêmement faible, ce qui fait que ces événements sont extrêmement rares dans les données de conduite, ce qui rend difficile pour les modèles d'apprentissage en profondeur d'apprendre les caractéristiques de ces événements.
La perte de diffusion est une fonction de perte liée au modèle de diffusion, qui est utilisée pendant le processus de formation pour guider le modèle afin d'apprendre à supprimer progressivement le bruit et à restaurer la structure d'origine des données.
Le défi de la longue traîne fait généralement référence à une classe de problèmes rencontrés dans l'apprentissage automatique et l'apprentissage en profondeur, en particulier lorsqu'il s'agit de tâches de reconnaissance visuelle.
Le ratio de bêtise est une mesure utilisée pour évaluer la proportion d'informations absurdes ou invalides dans les réponses données par les grands modèles linguistiques (LLM).
Dans le domaine de l’intelligence artificielle, l’apprentissage tout au long de la vie fait référence à la capacité d’une machine à mettre à jour et à améliorer en permanence sa base de connaissances et ses modèles en recevant continuellement de nouvelles données et expériences.
L'indépendance matérielle fait référence aux logiciels, applications, systèmes d'exploitation ou autres types de systèmes conçus pour ne pas dépendre ou être spécifiques à une plate-forme matérielle ou à une architecture matérielle particulière.
LlamaIndex est un outil permettant de créer des index et d'interroger des documents locaux, qui agit comme un pont entre les données personnalisées et les grands modèles de langage (LLM).
Le générateur de modalités est un élément clé d'un système d'apprentissage multimodal, et son rôle principal est de générer des sorties de différentes modalités, telles que des images, des vidéos ou des audios.
Le modèle de fondation géographique du langage visuel est un modèle d’intelligence artificielle spécialement conçu pour traiter et analyser les données d’observation de la Terre.
Future Multi-Predictor Mixture est un composant de modèle pour la prévision de séries chronologiques qui fait partie de l'architecture TimeMixer.
PDM est un concept théorique pour la prévision des séries chronologiques et c'est l'un des composants principaux du modèle TimeMixer.
MRL apprend des informations avec différentes granularités en optimisant les vecteurs imbriqués de faible dimension et permet à une seule intégration de s'adapter aux contraintes de calcul des tâches en aval.
Hadoop est un framework open source développé par l'Apache Software Foundation pour stocker et traiter de grandes quantités de données sur des clusters de matériel standard.
Edge AI fait référence au déploiement d'algorithmes et de modèles d'IA directement sur des appareils périphériques locaux tels que des capteurs ou des appareils Internet des objets (IoT), permettant le traitement et l'analyse des données en temps réel sans dépendre constamment de l'infrastructure cloud. En termes simples, l’IA de pointe fait référence à l’intégration de l’informatique de pointe et de l’humain […]
Un projet, un produit ou une initiative open source adopte et promeut les principes de communication ouverte, de participation collaborative, de prototypage rapide, de transparence, de méritocratie et de développement axé sur la communauté.
L'informatique neuromorphique est le processus par lequel les ordinateurs sont conçus et construits pour imiter la structure et la fonction du cerveau humain, dans le but d'utiliser des neurones et des synapses artificiels pour traiter les informations de cette manière.
L'appel de fonction est un concept de base en programmation, qui signifie effectuer une tâche spécifique en appelant une fonction définie pendant l'exécution du programme.
Le réseau neuronal à pics (SNN), à l'intersection des neurosciences et de l'intelligence artificielle, est un modèle de réseau neuronal qui simule le comportement des neurones biologiques dans le cerveau.
Le modèle par éléments finis (MEF) est une méthode de calcul numérique qui approxime le comportement physique d'une entité en discrétisant une structure physique continue en un nombre fini de petites parties, appelées « éléments ». Ces éléments peuvent être des éléments linéaires unidimensionnels, des éléments surfaciques bidimensionnels ou des volumes tridimensionnels […]
Le codage de position contextuel est un nouveau type de méthode de codage de position qui permet aux informations de position de varier en fonction des conditions de contexte.
L'apprentissage avec erreurs (LWE) est un problème très important en cryptographie et en informatique théorique, proposé par Oded Regev en 2005. Le problème LWE peut être décrit comme suit : étant donné un système d'équations linéaires, où chaque […]
En mathématiques, l'approximation de faible rang est un problème de minimisation où la fonction de coût mesure la qualité de l'ajustement entre une matrice donnée (les données) et une matrice d'approximation (les variables d'optimisation), mais le rang de la matrice d'approximation doit être réduit.