Command Palette
Search for a command to run...
Wiki
Nous avons compilé des centaines d'entrées connexes pour vous aider à comprendre "l'intelligence artificielle"
La couche cachée fait référence à la couche autre que la couche d'entrée et la couche de sortie dans un réseau neuronal à propagation directe à plusieurs niveaux. La couche cachée ne reçoit pas directement de signaux externes et n’envoie pas directement de signaux au monde extérieur. Cela n'est nécessaire que lorsque les données sont séparées de manière non linéaire. Les neurones dans les couches cachées peuvent prendre de nombreuses formes, telles que des couches de pooling maximal et des couches convolutives, chacune exécutant une fonction mathématique différente, […]
Le vote dur est une méthode de vote qui génère directement des étiquettes de classe, principalement trouvées dans les algorithmes d'apprentissage automatique de classification. Le vote est une stratégie combinée pour les problèmes de classification dans l’apprentissage d’ensemble. L’idée de base est de sélectionner la classe avec le plus de résultats dans l’algorithme. Le vote dur consiste à sélectionner l'étiquette avec le plus de résultats de l'algorithme. Si le nombre d'étiquettes est égal, elles sont triées par ordre croissant. […]
Indépendant et identiquement distribué (IID) signifie que la distribution de probabilité de chaque variable dans un ensemble de variables aléatoires est la même et que ces variables aléatoires sont indépendantes les unes des autres. Le fait qu’un ensemble de variables aléatoires soit indépendant et identiquement distribué ne signifie pas que la probabilité de chaque événement dans leur espace d’échantillonnage soit la même. Par exemple, la séquence des résultats obtenus en lançant des dés non uniformes est indépendante et distribuée de manière identique, mais la probabilité de lancer chaque [...]
L'apprentissage incrémental signifie que lorsque de nouvelles données sont ajoutées, seules les nouvelles données sont mises à jour. L’apprentissage progressif permet d’acquérir en continu de nouvelles connaissances à partir de nouveaux échantillons tout en préservant la plupart des connaissances précédemment acquises. L’apprentissage progressif est similaire au modèle d’apprentissage humain, qui est un processus d’accumulation et de mise à jour progressive. La méthode d’apprentissage traditionnelle est l’apprentissage par lots, qui prépare toutes les données[…]
Une base de connaissances est une base de données spéciale utilisée pour la gestion des connaissances afin de faciliter la collecte, l'organisation et l'extraction des connaissances pertinentes du domaine. Les connaissances contenues dans la base de données proviennent d’experts du domaine. Il s’agit d’un ensemble de connaissances de domaine liées à la résolution de problèmes, couvrant les faits de base, les règles et d’autres informations pertinentes. La base de connaissances est une ingénierie des connaissances structurée, facile à utiliser, facile à utiliser et complète[…]
Algorithme K-Nearest Neighbor KNN est un algorithme de classification et de régression de base qui utilise les K points les plus proches de lui-même pour voter afin de déterminer la classification des données catégorielles. Fonctionnalités de KNN KNN est une méthode d'apprentissage paresseux. KNN présente une complexité de calcul élevée. Différentes valeurs K donneront lieu à des résultats de classification différents.
La divergence JS mesure la similarité de deux distributions de probabilité. Il est basé sur une variante de la divergence KL et résout le problème asymétrique de la divergence KL. Généralement, la divergence JS est symétrique et sa valeur est comprise entre 0 et 1. Les définitions sont les suivantes : Il y a un problème lors de l'utilisation de la divergence KL et de la divergence JS comme mesure : Si deux […]
L'arbre de régression des moindres carrés est un algorithme d'arbre de régression couramment utilisé. Afin de minimiser l'erreur quadratique, il est nécessaire de parcourir les valeurs de chaque caractéristique à tour de rôle et de calculer l'erreur de chaque point de segmentation possible. Enfin, le point avec la plus petite erreur de segmentation est sélectionné et l’espace d’entrée est divisé en deux parties. Les étapes ci-dessus sont répétées de manière récursive jusqu’à ce que la segmentation soit terminée. Cette méthode […]
L'allocation de Dirichlet latente (LDA) est un modèle de sujet qui peut exprimer le sujet de chaque document dans un ensemble de documents sous la forme d'une distribution de probabilité. Il s’agit également d’un algorithme d’apprentissage non supervisé qui ne nécessite pas d’ensemble d’entraînement annoté manuellement pour l’entraînement. Il suffit d'un ensemble de documents et du nombre de sujets spécifiés K. De plus, pour chaque sujet, […]
La longueur de description minimale, également connue sous le nom de principe de longueur de description minimale, signifie que parmi plusieurs hypothèses de stockage de données, l'hypothèse qui peut produire le plus d'effet de compression de données est la meilleure. Le principe de longueur minimale de description est une formalisation du rasoir d’Occam, introduit par Jorma Rissanen en 1978. Son point principal est le suivant : dans tout […]
Le méta-apprentissage est un sous-domaine de l’apprentissage automatique dans lequel des algorithmes d’apprentissage automatique sont appliqués aux métadonnées des expériences d’apprentissage automatique. Le cœur du méta-apprentissage est le processus « d’apprentissage (formation) », qui consiste à étudier comment faire en sorte que les neurones fassent bon usage des anciennes connaissances afin qu’ils puissent s’adapter en fonction de nouvelles tâches. Le schéma est le suivant : Les paramètres initiaux du réseau neuronal (bleu ■ […]
Le pooling maximal est une opération de pooling couramment utilisée qui réduit la quantité de données en maximisant la valeur. Son fonctionnement habituel consiste à diviser l'image d'entrée en plusieurs zones rectangulaires et à générer la valeur maximale pour chaque sous-domaine. À l’heure actuelle, les méthodes de regroupement couramment utilisées incluent le regroupement maximal et le regroupement moyen, qui réduisent les calculs complexes de la couche cachée supérieure et peuvent ne pas être affectés par le courant […]
L'intervalle maximal fait référence à la situation dans la tâche de classification où la distance entre les données d'apprentissage est la plus grande. L'hyperplan qui satisfait l'intervalle maximal peut diviser les données en catégories positives et négatives, et la confiance de décision est la plus élevée à ce moment. Dans les machines à vecteurs de support, il existe une maximisation de marge dure et une maximisation de marge douce, qui sont toutes deux des stratégies permettant de trouver la marge maximale.
Le champ aléatoire de Markov est également connu sous le nom de réseau de Markov, qui est un modèle décrit par un graphe non orienté. Il contient un ensemble de nœuds, chaque nœud correspond à une seule variable ou à un groupe de variables, et les liens entre les nœuds ne sont pas dirigés. Le champ aléatoire de Markov décrit que parmi plusieurs points de données, il n'y a pas de relation claire entre deux points en termes d'avant et d'arrière ou de direction, bien qu'il existe une relation entre les deux points.
Le résumé automatique est le processus de raccourcissement de documents texte à l'aide d'un logiciel afin de créer un résumé contenant les points principaux du document original. Il fait actuellement partie du domaine de l'apprentissage automatique et de l'exploration de données, et son objectif est de trouver des sous-ensembles de données contenant des « informations » pertinentes. Il existe actuellement deux méthodes de résumé automatique : l’extraction et l’abstraction. L'extraction est basée sur des mots et des phrases du texte original […]
La technologie de reconnaissance automatique de la parole est une technologie qui convertit la parole humaine en texte. En raison de la diversité et de la complexité des signaux vocaux, le système actuel de reconnaissance vocale ne peut atteindre des performances satisfaisantes que sous certaines restrictions (il ne peut être appliqué qu'à certaines occasions spécifiques). Définition de la reconnaissance automatique de la parole L’objectif de la technologie de reconnaissance automatique de la parole est de permettre aux ordinateurs de « […]
Un autoencodeur est un réseau neuronal artificiel utilisé pour un codage efficace dans l'apprentissage non supervisé, souvent pour la réduction de la dimensionnalité. Il s'agit également d'un algorithme de compression de données dans lequel les fonctions de compression et de décompression des données sont avec perte et apprises automatiquement à partir d'échantillons, mais dans la plupart des cas où des auto-encodeurs sont mentionnés, les fonctions de compression et de décompression sont apprises via des réseaux neuronaux […]
Le mécanisme d’attention humaine est basé sur l’intuition. Il s’agit d’un moyen pour les humains d’utiliser des ressources limitées pour filtrer rapidement des informations de grande valeur parmi une grande quantité d’informations. Le mécanisme d'attention dans l'apprentissage profond s'appuie sur le mode de réflexion de l'attention humaine et est largement utilisé dans divers scénarios tels que le traitement du langage naturel, la classification d'images, la reconnaissance vocale, etc., et a obtenu des résultats remarquables.
L'AUC est définie comme la zone sous la courbe ROC et l'axe des coordonnées. Étant donné que la courbe ROC est supérieure à y=x, la plage de valeurs de l'AUC est comprise entre 0,5 et 1. L'AUC peut être utilisée comme indicateur de la qualité du modèle lors de la comparaison de différents modèles de classification. Son importance principale réside dans le fait que l’AUC […]
La matrice hessienne, également connue sous le nom de matrice hessienne ou matrice hessienne, est une matrice de blocs constituée des dérivées partielles du second ordre d'une fonction multivariée à valeurs réelles. Il s'agit d'une généralisation de la dérivée du second ordre aux fonctions multivariées, et elle est étroitement liée aux valeurs extrêmes des fonctions.
L'élagage alpha-bêta est un algorithme de recherche utilisé pour réduire le nombre de nœuds dans l'arbre de recherche Minimax.
La théorie de la résonance adaptative (ART en abrégé) fait référence à un modèle théorique qui stipule que lorsqu'il y a interaction entre un réseau neuronal et l'environnement, l'encodage des informations environnementales se produit spontanément dans le réseau neuronal, et le réseau peut s'auto-organiser pour générer l'encodage des connaissances environnementales.
Les circuits intégrés spécifiques à une application, ou ASIC en abrégé, sont des circuits intégrés dotés de spécifications spéciales qui sont personnalisées en fonction des différentes exigences du produit ; au contraire, les circuits intégrés non personnalisés sont des produits standardisés spécifiques à une application (ASSP).
Un agent intelligent fait référence à une entité logicielle ou matérielle capable d’agir de manière autonome. Il a été traduit par « agent », « agent », « sujet intelligent », etc.