Sélection arXiv : Cinq Articles Parmi Les Plus Populaires De Juin

Fondé en 1991, arXiv.org a collecté plus d'un million de prépublications à ce jour. Ces dernières années, son volume mensuel de soumissions a dépassé les 10 000. C’est devenu un immense trésor d’apprentissage. Cet article répertorie les articles les plus en vogue dans le domaine de l'intelligence artificielle sur arXiv.org au cours du mois dernier pour votre référence.
En tant que système « d'occupation » dédié aux chercheurs,arXiv.org Il contient un grand nombre d'articles de recherche dans divers domaines tels que la physique, les mathématiques, l'informatique, etc. Des chercheurs du monde entier contribuent à arXiv.
Depuis 2016, ses soumissions mensuelles ont dépassé 10 000Article. Un nombre considérable de documents constituent un véritableUn trésor de méthodes d'apprentissage, que vous pouvez utiliser pour résoudre des problèmes de science des données. Mais cette vaste gamme de ressources accroît également la difficulté du dépistage.

À cette fin, nous avons sélectionné certains des derniers articles de recherche sur arXiv.org.Intelligence artificielle, apprentissage automatique et apprentissage profondNous avons compilé une liste de sujets très attractifs dans le domaine, notamment les statistiques, les mathématiques et l’informatique.Le plus chaudListe des articles.
Nous espérons vous faire gagner du temps en sélectionnant des articles qui illustrent ce que signifie être un data scientist. Les articles répertoriés ci-dessous représentent une petite fraction de tous les articles parus sur arXiv. Le classement n’est pas basé sur un ordre particulier et chaque article est accompagné d’un lien et d’un bref aperçu.
Comme il s’agit de documents de recherche universitaires, ils sont généralementÉtudiants diplômés, postdoctorants et professionnels expérimentés.Cela implique généralement des mathématiques avancées, alors soyez prêt. Ensuite, profitez-en !
Estimation du gradient de Monte-Carlo en apprentissage automatique
Lien vers l'article :https://arxiv.org/pdf/1906.10652.pdf
Niveau recommandé : ★★★★★
Cet article est une exploration de nos travaux en apprentissage automatique et en sciences statistiques.Estimation du gradient de Monte CarloUn aperçu large et accessible des méthodes utilisées : l'intégration du problème du calcul du gradient d'une espérance d'une fonction avec les paramètres d'une distribution définie, et le problème de l'analyse de sensibilité.
Dans la recherche sur l’apprentissage automatique, ce problème de gradient est au cœur de nombreux problèmes d’apprentissage (y compris l’apprentissage supervisé, non supervisé et par renforcement).Les chercheurs de GoogleOn cherche souvent à réécrire ces gradients sous une forme qui permette l’estimation de Monte Carlo, afin qu’ils puissent être utilisés et analysés de manière pratique et efficace.

« Une introduction aux autoencodeurs variationnels »
Introduction aux autoencodeurs variationnels
Lien vers l'article :https://arxiv.org/pdf/1906.02691v1.pdf
Niveau recommandé :★★★★★
Autoencodeur variationnelFournit un cadre de principe pour l'apprentissage de modèles de variables latentes profondes et de modèles d'inférence correspondants. Cet article présente les autoencodeurs variationnels et quelques extensions importantes.

« Réseaux antagonistes génératifs : étude et taxonomie »
Réseaux antagonistes génératifs :Enquête et classification
Lien vers l'article :https://arxiv.org/pdf/1906.01529v1.pdf
Niveau recommandé : ★★★★★
Au cours des dernières années, il y a eu beaucoup deRéseaux antagonistes génératifs (GAN)recherche. Les technologies les plus révolutionnaires parmi celles-ci sont apparues dans le domaine de la vision par ordinateur, telles que la génération d’images, la conversion d’image en image et les modifications des traits du visage.
Bien que la recherche GAN ait réalisé quelques avancées, elle se heurte à des difficultés lorsqu’elle est appliquée à des problèmes pratiques. 3 défis principaux :(1) Génération d’images de haute qualité ; (2) Génération d’images diversifiées ; (3) Entraînement à la stabilité.
Les auteurs ont proposé une méthode pour classer les GAN les plus populaires enVariantes d'architecture(variantes d'architecture) etVariantes de pertes(variantes de perte), puis relever trois défis à partir de ces deux perspectives.
Dans cet article, 7 variantes d’architecture GAN et 9 variantes de perte GAN sont examinées et discutées. L’objectif de cet article est de fournir une analyse approfondie des recherches actuelles sur l’amélioration des performances du GAN.

« Apprentissage des représentations d'état causal d'environnements partiellement observables »
Apprentissage des représentations d'état causal dans des environnements partiellement observables
Lien vers l'article :https://arxiv.org/pdf/1906.10437.pdf
Niveau recommandé : ★★★★
Les agents intelligents peuvent faire face à des environnements complexes et changeants en apprenant des abstractions indépendantes de l’état. Dans cet article, nous proposons des mécanismes d’approximation des états causaux pour promouvoir de manière optimale l’union des actions et des observations dans les processus de décision de Markov observables. L'algorithme proposé extrait des représentations d'état causal d'un RNN qui est formé pour prédire les observations ultérieures de l'historique. L'auteur prouve queEn apprenant l’abstraction des états inconnaissables, la planification stratégique des problèmes d’apprentissage par renforcement peut être efficacement apprise.

« Le processus neuronal fonctionnel »
Processus neuronal fonctionnel
Lien vers l'article :https://arxiv.org/pdf/1906.08324.pdf
Niveau recommandé : ★★★★
Cet article propose un processus d'échange aléatoire appeléProcessus neuronaux fonctionnels (PNF). Le modèle FNP est formé sur un ensemble de données donné pour simuler la distribution des fonctions via un graphe de dépendance sur la représentation latente.
Ce faisant, l’approche habituelle définit uniquement le modèle bayésien et néglige de définir des distributions a priori sur les paramètres globaux ; pour améliorer cela,Cet article donne un a priori sur la structure relationnelle de l'ensemble de données pour simplifier cette tâche.
Les auteurs montrent comment apprendre ces modèles à partir de données, enTest d'optimisation par petits lots, montrant qu'ils s'adaptent à de grands ensembles de données et décrivant comment les prédictions pour de nouveaux points peuvent être faites via la distribution prédictive postérieure.
Pour vérifier les performances des FNP, des tests ont été menés sur la régression des jouets et la classification des images. Les résultats ont montré que les FNP peuvent fournir de meilleures prévisions compétitives et des estimations d’incertitude plus robustes par rapport aux paramètres de la ligne de base.
