Command Palette
Search for a command to run...
Wiki
Nous avons compilé des centaines d'entrées connexes pour vous aider à comprendre "l'intelligence artificielle"
Contrairement aux entrepôts de données ou aux silos, les lacs de données utilisent une architecture plate avec stockage d'objets pour conserver les métadonnées des fichiers.
Le règlement général sur la protection des données (RGPD) est la loi la plus stricte au monde en matière de confidentialité et de sécurité.
L'infrastructure hyperconvergée (HCI) combine les serveurs et le stockage dans une plate-forme d'infrastructure distribuée, crée des blocs de construction flexibles grâce à des logiciels intelligents et remplace l'infrastructure traditionnelle composée de serveurs, de réseaux de stockage et de baies de stockage distincts.
Le calcul exascale fait référence à un système informatique capable de calculer au moins « 10 18 opérations IEEE 754 double précision (64 bits) (multiplications et/ou additions) par seconde (exa FLOPS) », ce qui est une mesure des performances d'un supercalculateur. L’informatique exascale est l’informatique […]
HyperNetworks est une structure de réseau neuronal qui présente certaines différences dans la paramétrisation du modèle par rapport aux réseaux neuronaux traditionnels. L’article « HyperNetworks » publié par Google Brain en 2016 indiquait que dans Hyper […]
Le codage prédictif (PC) est un cadre théorique en sciences cognitives qui soutient que le cerveau humain traite la cognition à travers des prédictions spatio-temporelles du monde visuel.
Le modèle de probabilité de diffusion démontre le lien entre le modèle de probabilité de diffusion et la théorie PC.
Le cadre DQ-LoRe utilise la requête double (DQ) et le reclassement approximatif de faible rang (LoRe) pour sélectionner automatiquement des exemples d'apprentissage contextuel.
L'apprentissage contrastif est une technique qui améliore les performances des tâches de vision en utilisant le principe de contraste des échantillons les uns par rapport aux autres pour apprendre les propriétés communes aux classes de données et les propriétés qui distinguent une classe de données d'une autre.
En abordant les limites du LSTM traditionnel et en incorporant de nouveaux composants tels que la porte exponentielle, la mémoire matricielle et l'architecture parallélisable, xLSTM ouvre de nouvelles possibilités pour le LLM.
Un nuage de points est un ensemble de données de points dans l'espace qui peuvent représenter une forme ou un objet 3D, généralement acquis par un scanner 3D.
La segmentation d'image de référence (RIS) vise à segmenter les objets cibles référencés par des expressions en langage naturel. Cependant, les méthodes précédentes reposent sur une forte hypothèse selon laquelle une phrase doit décrire un objet dans une image […]
Le modèle des ébauches multiples est une théorie physicaliste de la conscience basée sur le cognitivisme, proposée par Daniel Dennett. Cette théorie considère l’esprit du point de vue du traitement de l’information. Dennett a publié Consciousness Explained en 1991.
KAN : Réseaux de Kolmogorov-Arnold L'article propose une alternative prometteuse au perceptron multicouche (MLP) appelée réseaux de Kolmogorov-Arnold (KAN). L'origine du nom KAN est […]
Le théorème de représentation de Kolmogorov-Arnold facilite l'analyse des systèmes dynamiques complexes
L’apprentissage des modèles d’action englobe un processus complexe dans le domaine de l’intelligence artificielle où les modèles sont développés essentiellement pour prédire les effets des actions d’un agent dans un environnement.
Le taux de vrais positifs (TPR) est une mesure utilisée dans les statistiques, l'apprentissage automatique et le diagnostic médical pour évaluer les performances des modèles de classification binaire. Il représente la proportion de cas positifs réels qui ont été correctement identifiés ou classés comme positifs par le modèle. Le TPR est également appelé sensibilité, rappel ou […]
Les jetons de pépin sont des mots qui, dans les grands modèles de langage, sont censés contribuer au bon fonctionnement du modèle, mais qui produisent des résultats anormaux. Une équipe de recherche de l'Université des sciences et technologies de Huazhong, de l'Université technologique de Nanyang et d'autres universités a publié une étude en 2024 intitulée « Jetons de pépin dans […] ».
Les modèles linguistiques multimodaux de grande taille combinent la puissance du traitement du langage naturel (TAL) avec d'autres modalités telles que les images, l'audio ou la vidéo.
Comparé à d’autres méthodes de mise à niveau LLM utilisant un mélange d’experts, DUS ne nécessite pas de changements complexes pour une formation et une inférence efficaces.
Dans le domaine de l'apprentissage profond, Grokking fait référence à un phénomène dans le processus de formation des réseaux neuronaux, c'est-à-dire qu'une bonne généralisation peut être obtenue même après que l'erreur de formation diminue pendant une longue période.
Les lois d'échelle dans l'apprentissage profond font référence à la relation entre une propriété fonctionnelle d'intérêt (généralement une perte de test ou une mesure de performance sur une tâche de réglage fin) et les propriétés de l'architecture ou de la procédure d'optimisation (telles que la taille du modèle, la largeur ou le calcul d'entraînement).
L'émergence dans le domaine de l'intelligence artificielle fait référence à un phénomène dans lequel des comportements ou des structures collectives complexes apparaissent à travers l'interaction d'individus ou de règles simples. En intelligence artificielle, ce type d’émergence peut faire référence à des fonctionnalités ou des comportements de haut niveau appris par le modèle qui ne sont pas directement conçus […]
L'IA explicable (XAI) est un ensemble de processus et de méthodes qui permettent aux utilisateurs humains de comprendre et de faire confiance aux résultats et aux sorties créés par les algorithmes d'apprentissage automatique.