Rückblick Auf 2018: Die 6 Beliebtesten Open-Source-Projekte Für Maschinelles Lernen

Von Super Neuro
Im vergangenen Jahr 2018 erlebten künstliche Intelligenz und maschinelles Lernen einen Aufschwung. Maschinelles Lernen findet Anwendung in den Bereichen Gesundheitswesen, Finanzen, Spracherkennung, erweiterte Realität usw. Dieser Artikel gibt einen Überblick über die sechs praktischsten Projekte zum maschinellen Lernen des vergangenen Jahres. Ihre GitHub-Adressen werden zu Ihrer Information beigefügt.
fastai

GitHub-Adresse:https://github.com/fastai/fastai
Dies ist eine kostenlose Open-Source-Pytorch-Bibliothek, die von Fast.ai veröffentlicht wurde. Es wurde ursprünglich für Studierende des Fast.ai-Kurses erstellt und im Oktober 2018 offiziell der Öffentlichkeit zugänglich gemacht.
Der Kern besteht darin, effiziente Methoden zum Trainieren schneller und präziser neuronaler Netzwerke zu verwenden. Für wichtige Deep-Learning-Anwendungen und Datentypen steht nun eine einheitliche API zur Verfügung.

Es ist nicht nur äußerst effizient, sondern auch hinsichtlich seiner Einfachheit und Benutzerfreundlichkeit recht benutzerfreundlich, da es unter Berücksichtigung der Programmkonstruktionsideen von Praktikern entwickelt wurde.
Detetron

GitHub-Adresse:https://github.com/facebookresearch/Detectron
Detectron ist das Ergebnis der Facebook-KI, basiert auf Python und Caffe2 und wurde im Januar 2018 offiziell als Open Source veröffentlicht. Es handelt sich um eine Plattform für die Objekterkennung und Instanzsegmentierungsforschung mit einer Vielzahl von Objekterkennungsalgorithmen, darunter:
1) Mask R-CNN: Verwendet die schnellere R-CNN-Struktur, um Objekterkennung und Instanzsegmentierung zu erreichen.
2) RetinaNet: Ein auf einer funktionalen Pyramide basierendes Netzwerk, das zur Behandlung des Problems einen einzigartigen Focal Loss verwendet.
3) Schnelleres R-CNN: Die am häufigsten verwendete Netzwerkstruktur zur Zielerkennung.
Die von diesen Zielerkennungsnetzwerken hauptsächlich verwendeten Faltungsnetzwerkarchitekturen sind:
- ResNeXt {50, 101, 152}
- RESNET {50, 101, 152}
- Feature-Pyramiden-Netzwerke (mit ResNet/ResNeXt)
- VGG16
Darüber hinaus enthält Detectron Basisergebnisse und trainierte Modelle für diese Algorithmen und Architekturen und bietet gute Unterstützung für den COCO-Datensatz.
FastText

GitHub-Adresse:https://github.com/facebookresearch/fastText
Es handelt sich ebenfalls um eine Datenbank von Facebook AI, die 2016 als Open Source veröffentlicht wurde. Die FastText-Bibliothek ist eine Plattform für die Darstellung und Klassifizierung von Text.
Es unterstützt mehrere Sprachen und verfügt über Wortvektormodelle, die für über 150 Sprachen trainiert sind. Diese Wortvektoren haben vielfältige Verwendungsmöglichkeiten, darunter Textklassifizierung, Zusammenfassung und Übersetzung.
Darüber hinaus kann FastText im Vergleich zu Deep-Modellen die Trainingszeit von mehreren Tagen auf wenige Sekunden verkürzen.
AutoKeras

GitHub-Adresse: https://github.com/jhfjhfj1/autokeras
Auto-Keras ist eine Open-Source-Softwarebibliothek für automatisiertes maschinelles Lernen (AutoML). Es wurde vom DATA Lab der Texas A&M University und Community-Mitwirkenden mithilfe der Methode Efficient Neural Architecture Search (ENAS) entwickelt.

Das ultimative Ziel von AutoML besteht darin, barrierefreie Zugriffstools bereitzustellen, sodass Personen ohne Hintergrund in den Bereichen Data Science oder maschinelles Lernen problemlos auf ML zugreifen und es verwenden können. Auto-Keras geht noch einen Schritt weiter, indem es automatische Suchfunktionen für Deep-Learning-Modelle und Hyperparameter bereitstellt.
Dopamin

GitHub-Adresse:https://github.com/google/dopamine
Dopamine ist ein von Google entwickeltes Produkt auf Basis von TensorFlow. Es handelt sich um ein Forschungsframework für das Rapid Prototyping von Reinforcement-Learning-Algorithmen. Es ist flexibel und benutzerfreundlich und implementiert standardmäßige RL-Algorithmen, Metriken und Benchmarks.
Laut der Dopamine-Dokumentation lauten die Designprinzipien:
- Einfach zu verwenden: Unterstützung neuer Benutzer bei der Durchführung von Benchmark-Experimenten
- Flexible Entwicklung: Ermutigen Sie neue Benutzer, neue Ideen zu entwickeln
- Kompakt und zuverlässig: Bereitstellung von Garantien für neue beliebte Algorithmen
- Wiederholbarkeit: Stellen Sie wiederholbare Ergebnisse sicher
vid2vid
Das Vid2vid-Projekt ist ein Forschungsprojekt von Nvidia, das sich auf das Problem der Video-zu-Video-Synthese konzentriert. Das Ziel des Vid2vid-Algorithmus besteht darin, eine Zuordnungsfunktion von einem Eingabequellvideo zu einem fotorealistischen Ausgabevideo zu erlernen. Das endgültige Ausgabevideo gibt den Inhalt des Quellvideos genau wieder.

GitHub-Adresse:https://github.com/NVIDIA/vid2vid
Das Tolle an dieser Bibliothek ist, dass sie mehrere verschiedene Vid2Vid-Anwendungen bietet, darunter autonomes Fahren/Stadtszenen, Gesichter und menschliche Posen. Es verfügt außerdem über zahlreiche Anweisungen und Funktionen, darunter das Laden von Datensätzen, die Aufgabenauswertung, Trainingsfunktionen und Multi-GPU.