HyperAI

arXiv Selection: Fünf Der Heißesten Papers Im Juni

vor 6 Jahren
Information
Dao Wei
特色图像

ArXiv.org wurde 1991 gegründet und hat bis heute mehr als 1 Million Vorabdrucke gesammelt. In den letzten Jahren lag das monatliche Einreichungsvolumen bei über 10.000. Dies ist zu einer riesigen Fundgrube an Wissen geworden. Dieser Artikel listet zu Ihrer Information die aktuellsten Veröffentlichungen im Bereich der künstlichen Intelligenz auf arXiv.org im letzten Monat auf.

Als dediziertes "Belegungssystem" für Forscher,arXiv.org  Es enthält eine große Anzahl von Forschungsarbeiten aus verschiedenen Bereichen wie Physik, Mathematik, Informatik usw. Forscher aus der ganzen Welt tragen zu arXiv bei.

Seit 2016 übersteigen die monatlichen Einreichungen 10.000Artikel. Eine große Anzahl von Papieren stellt eine echteEine Fundgrube an Lernmethoden, die Sie zur Lösung von Data-Science-Problemen verwenden können. Allerdings erschwert diese enorme Ressourcenvielfalt auch das Screening.

Die große Anzahl von Papieren lässt den Leser unweigerlich schwindlig werden

Zu diesem Zweck haben wir einige der neuesten Forschungsarbeiten auf arXiv.org ausgewählt.Künstliche Intelligenz, maschinelles Lernen und Deep LearningWir haben eine Liste sehr attraktiver Fächer aus diesem Bereich zusammengestellt, darunter Statistik, Mathematik und Informatik.Am heißestenListe der Papiere.

Wir hoffen, Ihnen etwas Zeit zu sparen, indem wir Artikel auswählen, die veranschaulichen, was es bedeutet, ein Datenwissenschaftler zu sein. Die unten aufgeführten Artikel stellen einen kleinen Teil aller Artikel dar, die auf arXiv erschienen sind. Die Rangfolge ist nicht festgelegt und jedem Artikel liegen ein Link und eine kurze Übersicht bei.

Da es sich um akademische Forschungsarbeiten handelt, sind sie in der RegelDoktoranden, Postdocs und erfahrene Fachkräfte.Dabei handelt es sich normalerweise um höhere Mathematik, seien Sie also vorbereitet. Und dann: Viel Spaß!

Monte-Carlo-Gradientenschätzung im maschinellen Lernen

Link zum Artikel:https://arxiv.org/pdf/1906.10652.pdf

Empfohlenes Niveau: ★★★★★

Dieser Artikel ist eine Erkundung unserer Arbeit im Bereich maschinelles Lernen und Statistikwissenschaft.Monte-Carlo-GradientenschätzungEine umfassende und leicht verständliche Übersicht über die verwendeten Methoden: die Integration des Problems der Berechnung des Gradienten des Erwartungswerts einer Funktion mit den Parametern einer definierten Verteilung und das Problem der Sensitivitätsanalyse.

In der Forschung zum maschinellen Lernen steht dieses Gradientenproblem im Mittelpunkt vieler Lernprobleme (einschließlich überwachtem, unüberwachtem und bestärkendem Lernen).Google-ForscherOftmals wird versucht, solche Gradienten in eine Form umzuschreiben, die eine Monte-Carlo-Schätzung ermöglicht, sodass sie bequem und effizient verwendet und analysiert werden können.

Die stochastische Optimierungsschleife besteht aus einer Simulationsphase und einer Optimierungsphase.

„Eine Einführung in Variational Autoencoder“

Einführung in Variational Autoencoder

Link zum Artikel:https://arxiv.org/pdf/1906.02691v1.pdf

Empfohlenes Niveau:★★★★★

Variationaler AutoencoderBietet einen prinzipiellen Rahmen zum Erlernen tiefer latenter Variablenmodelle und entsprechender Inferenzmodelle. In diesem Dokument werden Variational Autoencoder und einige wichtige Erweiterungen vorgestellt.

VAE lernt eine zufällige Abbildung zwischen dem beobachteten x-Raum

„Generative Adversarial Networks: Eine Übersicht und Taxonomie“

Generative Adversarial Networks:Untersuchung und Klassifizierung

Link zum Artikel:https://arxiv.org/pdf/1906.01529v1.pdf

Empfohlenes Niveau: ★★★★★

In den letzten Jahren gab es vieleGenerative Adversarial Networks (GANs)Forschung. Die revolutionärsten Technologien darunter sind im Bereich der Computervision entstanden, beispielsweise bei der Bilderzeugung, der Bild-zu-Bild-Konvertierung und der Veränderung von Gesichtszügen.

Obwohl in der GAN-Forschung einige Durchbrüche erzielt wurden, stößt sie bei der Anwendung auf praktische Probleme auf Schwierigkeiten. 3 Hauptherausforderungen:(1) Erzeugung hochwertiger Bilder; (2) Vielfältige Bilderzeugung; (3) Stabilitätstraining.

Die Autoren schlugen eine Methode vor, um die beliebtesten GANs inArchitekturvarianten(Architekturvarianten) undVerlustvarianten(Verlustvarianten) und gehen Sie dann aus diesen beiden Perspektiven auf drei Herausforderungen ein.

In diesem Artikel werden 7 Architekturvarianten von GANs und 9 Verlustvarianten von GANs überprüft und diskutiert. Der Zweck des Dokuments besteht darin, eine eingehende Analyse der aktuellen Forschung zur Leistungsverbesserung von GANs bereitzustellen.

Die Architektur von GAN. Während des Lernprozesses werden zwei tiefe neuronale Netzwerke, der Erkenner D und der Generator G, synchron trainiert.

„Erlernen kausaler Zustandsdarstellungen teilweise beobachtbarer Umgebungen“

Lernen kausaler Zustandsdarstellungen in teilweise beobachtbaren Umgebungen

Link zum Artikel:https://arxiv.org/pdf/1906.10437.pdf

Empfohlenes Niveau: ★★★★

Intelligente Agenten können mit komplexen und sich verändernden Umgebungen zurechtkommen, indem sie zustandsunabhängige Abstraktionen erlernen. In diesem Artikel schlagen wir Mechanismen zur Approximation kausaler Zustände vor, um die Vereinigung von Aktionen und Beobachtungen in beobachtbaren Markow-Entscheidungsprozessen optimal zu fördern. Der vorgeschlagene Algorithmus extrahiert kausale Zustandsdarstellungen aus einem RNN, das darauf trainiert ist, nachfolgende Beobachtungen aus der Historie vorherzusagen. Der Autor beweist, dassDurch das Erlernen der Abstraktion unbekannter Zustände kann die Strategieplanung für Probleme des bestärkenden Lernens effektiv erlernt werden.

Funktionales neuronales Prozessmodell (FNP)

„Der funktionelle neuronale Prozess“

Funktioneller neuronaler Prozess

Link zum Artikel:https://arxiv.org/pdf/1906.08324.pdf

Empfohlenes Niveau: ★★★★

Dieses Papier schlägt einen zufälligen austauschbaren Prozess vor, genanntFunktionale neuronale Prozesse (FNPs). Das FNP-Modell wird anhand eines gegebenen Datensatzes trainiert, um die Verteilung von Funktionen durch einen Abhängigkeitsgraphen auf der latenten Darstellung zu simulieren.

Dabei definiert der übliche Ansatz lediglich das Bayes'sche Modell und vernachlässigt die Festlegung vorheriger Verteilungen der globalen Parameter. um dies zu verbessern,Um diese Aufgabe zu vereinfachen, enthält dieses Dokument a priori Informationen zur relationalen Struktur des Datensatzes.

Die Autoren zeigen, wie man diese Modelle aus Daten lernt, indemOptimierungstest für kleine Chargen, zeigt, dass sie auf große Datensätze skalierbar sind, und beschreibt, wie Vorhersagen für neue Punkte über die Posterior-Prädiktivverteilung getroffen werden können.

Um die Leistung von FNPs zu überprüfen, wurden Tests zur Spielzeugregression und Bildklassifizierung durchgeführt. Die Ergebnisse zeigten, dass FNPs im Vergleich zu den Parametern der Basislinie bessere Wettbewerbsvorhersagen und robustere Unsicherheitsschätzungen liefern können.

Generieren Sie einen zufälligen Prozess der Graphmodell-Testergebnisse von Knoten

Klicken Sie hier, um den Originalartikel zu lesen