TensorFlow Ist Jetzt Vier Jahre Alt. Was Ist Das Wichtigste? @GDD 2019

Am zweiten Tag der GDD waren die Entwickler immer noch begeistert und die TensorFlow RoadShow war voll. Seit der Einführung von TensorFlow im Jahr 2015 sind vier Jahre vergangen. Google hat ein ganzes Ökosystem rund um TensorFlow aufgebaut und die Benutzerbasis wächst. Was also hat uns das TensorFlow-Team von Google dieses Mal gebracht?
Gestern hat Google auf der GDD-Konferenz seine jüngsten Entwicklungen und neuen Produkte ausführlich vorgestellt. Am zweiten Tag der GDD lag der Fokus auf TensorFlow, das seit vier Jahren veröffentlicht wird.
Heute früh veranstaltete Apple eine Konferenz zur Einführung neuer Produkte und stellte die iPhone 11-Serie mit Dreifachkamera vor. Darüber hinaus wurden auch neue Produkte wie iPad, Apple Arcade, Apple TV+ und Apple Watch Series 5 veröffentlicht.
Während Apple die Verbrauchergruppe mit neuen Produkten stimuliert, geht es auf der anderen Seite des Ozeans bei der Google Developer Conference in zurückhaltender und stetiger Weise weiter, wo die neuesten technologischen Fortschritte im Detail vorgestellt und Entwicklern die praktischste Hilfe geboten wird.
Die spezielle TensorFlow RoadShow füllte den gesamten Tagesplan. Welche Highlights hat das TensorFlow-Team zum heutigen GDD mitgebracht?
TensorFlow: Das beliebteste Framework für maschinelles Lernen
Bei der TensorFlow RoadShow war Liang Xinping, der Produktmanager für den asiatisch-pazifischen Raum, der erste, der über „Gegenwart und Zukunft des maschinellen Lernens“ sprach und die Entwicklung von TensorFlow skizzierte.

In der aktuellen Entwicklung des maschinellen Lernens gibt es drei zentrale Punkte:Datensätze, Rechenleistung und Modelle.Tensorflow ist die erfolgreichste Machine-Learning-Plattform im Einklang mit dem Trend des maschinellen Lernens.
Seit seiner Veröffentlichung im Jahr 2015TensorFlow wurde kontinuierlich verbessert und aktualisiert.Bis heute gibt es mehr als 41 MillionenDownloads, mehr als 50.000 MalEinreichungsvolumen,9900 malCode-Änderungsanfragen und Mehr als 1.800Mitwirkende.

Aufgrund seiner leistungsstarken Funktionen gibt es immer mehr praktische Anwendungsfälle für TensorFlow und viele Unternehmen und Institutionen nutzen es für Forschung und Entwicklung. Darüber hinaus wurde auch die chinesische TensorFlow-Website gestartet und die chinesische Community sowie die technischen Ressourcen wachsen von Tag zu Tag.
Nach der Einführung dieser Situationen wurde sofort eine umfassende Darstellung von TensorFlow gestartet und die Ingenieure des Teams gaben eine detaillierte Einführung in den Fortschritt von TensorFlow.
Wichtige Punkte: TensorFlow 2.0
Die mit Spannung erwartete Version 2.0 wurde schließlich im Jahr 2019 veröffentlicht. Im Juni dieses Jahres wurde die Betaversion von TensorFlow 2.0 veröffentlicht. Auf dem heutigen GDD gaben Ingenieure bekannt, dass TensorFlow 2.0 RC jetzt verfügbar ist. Im Vergleich zur Version 1.0 konzentriert sich die neue Version aufBenutzerfreundlichkeit, hohe Leistung und Skalierbarkeit.Drei Aspekte wurden verbessert.
Das Attraktivste daran ist, dass die Verwendung von Keras Als High-Level-API optimieren Sie die Standard Eifrige Ausführung , wodurch doppelte Funktionen entfernt undEinheitliche API .

TensorFlow 2.0 verwendet Keras und Eager Execution, wodurch sich Modelle einfach erstellen und eine robuste Modellbereitstellung in Produktionsumgebungen auf jeder Plattform erreichen lassen.
Nach der Vorstellung der Details zu 2.0 gab der Google-Ingenieur Liang Yanhui auch eine detaillierte Einführung in die Methode zum Upgrade von Version 1.0 auf 2.0.
Die interne Versionsmigration hat bei Google bereits begonnen und auf der offiziellen Website finden sich auch ausführliche Anleitungen und Tools zur Codemigration. Wenn Benutzer wirklich eine 1.0-Version der API benötigen oder darauf angewiesen sind, können sie diese gemäß der Anleitung problemlos auf Version 2.0 migrieren.
Welche besonderen Aspekte von TensorFlow 2.0 sind also beachtenswert? Die Ingenieure von Google haben aus den folgenden Perspektiven eine detaillierte Einführung erstellt.
TF.Text: Training von NLP-Modellen
Als wichtige Richtung des maschinellen Lernens besteht für die Verarbeitung natürlicher Sprache eine enorme Marktnachfrage. TF offiziell gestartet und aktualisiert TF.Text,Es bietet leistungsstarke Textverarbeitungsfunktionen für TensorFlow 2.0 und ist mit dem dynamischen Grafikmodus kompatibel.

TF.Text ist eine TensorFlow 2.0-Bibliothek, die einfach mit dem PIP-Befehl installiert werden kann. Es kann Vorverarbeitungsroutinen in textbasierten Modellen durchführen und bietet mehr Funktionen und Operationen für die Sprachmodellierung, die in den Kernkomponenten von TensorFlow nicht verfügbar sind.
Die häufigste Funktion istTokenisierung von Text. Bei der Tokenisierung handelt es sich um den Vorgang, eine Zeichenfolge in Token aufzuteilen. Diese Token können Wörter, Zahlen, Satzzeichen oder eine Kombination dieser Elemente sein.
Tokenizer von TF.Text. Ein neuer Tensortyp zur Texterkennung: Ragged Tensors. Und bietetDrei neue Tokenizer.Der grundlegendste davon ist der Whitespace Tokenizer, der eine UTF-8-Zeichenfolge in von ICU definierte Leerzeichen (wie Leerzeichen, Tabulator, Zeilenumbruch) aufteilt.
Die TF.Text-Bibliothek enthält außerdemNormalisierung, N-Gramme und Token-SequenzbeschränkungenUnd andere Funktionen. Die Verwendung von TF.Text bietet viele Vorteile. Beispielsweise müssen sich Benutzer keine Gedanken über die Konsistenz von Training und Vorhersage machen und Vorverarbeitungsskripte nicht selbst verwalten.
TensorFlow Lite: Einsatz von maschinellem Lernen am Edge
Zwei leitende Softwareentwickler von Google, Wang Tiezhen und Liu Renjie, stellten die funktionalen Updates und technischen Details von TensorFlow Lite vor.

TensorFlow Lite ist ein Framework zum Bereitstellen von Anwendungen für maschinelles Lernen auf Mobiltelefonen und eingebetteten Geräten.Die Hauptgründe für die Entscheidung zur Bereitstellung auf dem Client spiegeln sich in den folgenden drei Punkten wider:
Erstens: Es gibt fast keine Verzögerung, was für ein stabiles und zeitnahes Benutzererlebnis sorgt.
Zweitens: Es muss nicht mit dem Internet verbunden sein und kann in Umgebungen verwendet werden, in denen kein oder nur ein sehr schlechtes Internet vorhanden ist.
Drittens: Datenschutz, Daten werden nicht in die Cloud übertragen und die gesamte Verarbeitung kann auf dem Terminal erfolgen.
Angesichts dieser Vorteile gibt es bereits einen großen Markt für Anwendungen, die maschinelles Lernen auf dem Terminal basierend auf TensorFlow Lite bereitstellen, und in 2.0 wurde auch die Möglichkeit zum Bereitstellen von Modellen verbessert.
Beispielsweise wird die Xianyu-App im Mietszenario verwendet.Beschriften Sie Bilder automatisch mit TensorFlow Lite.Verbesserte Effizienz bei der Hausvermietung; Ecovacs Robotics setzt TensorFlow Lite in seinen Kehrrobotern ein, um eine automatische Hindernisvermeidung usw. zu erreichen. TensorFlow Lite wird auch häufig in Google-Produkten verwendet, wie z. B. in Google Photos, Input Method, Cloud Assistant usw.
Laut Statistik gibt esÜber 2 MilliardenEin mobiles Gerät mit einer installierten TensorFlow Lite-basierten Anwendung.
Allerdings sind bei der Bereitstellung von maschinellem Lernen auf dem Client noch viele Herausforderungen zu bewältigen. Im Vergleich zur Cloud beispielsweiseDas Terminal verfügt über weniger Rechenleistung und Speicher und bei der Bereitstellung auf dem Terminal muss der Stromverbrauch berücksichtigt werden. Auch TensorFlow Lite hat Optimierungen und Verbesserungen vorgenommen, um diese Herausforderungen zu bewältigen und die Bereitstellung von maschinellem Lernen auf dem Terminal zu erleichtern.
Der endgültige Implementierungsport von TensorFlow Lite kann nicht nur auf Android und iOS bereitgestellt werden, sondern eignet sich auch für eingebettete Systeme (wie Raspberry Pi), Hardwarebeschleuniger (wie Edge TPU) und Mikrocontroller (MCU).

Derzeit wird es bei der Bildklassifizierung, Objekterkennung, Haltungsschätzung, Spracherkennung und Gestenerkennung angewendet, und Funktionen wie BERT, Stilübertragung und Sprachaktivierung werden später veröffentlicht.
Wie stellen Sie Ihr eigenes Modell in TensorFlow Lite bereit? Liu Renjie führte ein, dass hierfür nur drei Schritte erforderlich seien: Trainieren des TF-Modells, Konvertieren in das TF-Lite-Format und Bereitstellen des Modells auf dem Endgerät. Laut der integrierten Bibliothek TF 2.0 ist dies mit nur wenigen Codeaufrufen möglich.
TensorFlow.js: Eine Plattform zum Erstellen von WeChat-Applets
TensorFlow.js ist eine für JavaScript angepasste Deep-Learning-Plattform.Sie können vorhandene Modelle ausführen, vorhandene Modelle neu trainieren und neue Modelle trainieren.

Um die Praktikabilität zu erhöhen,TensorFlow.js unterstützt mehrere Plattformen:Browser, drahtloses Terminal (wie z. B. WeChat-Applet), Server, Desktop-Computer. Sie können nicht nur Machine-Learning-Modelle auf mehreren Plattformen ausführen, sondern auch Modelle trainieren, GPU-Beschleunigung nutzen und automatisch WebGL unterstützen.
In der Live-Demonstration zeigten sie Modiface, ein virtuelles Anpassprogramm basierend auf TensorFlow.js. Durch diesen Rahmen haben wirDie kleinste und schnellste virtuelle Make-up-Test-App.Es wird berichtet, dass in Zukunft Funktionen wie Frisurenkonvertierung, Alterskonvertierungssimulation und Hautqualitätserkennung realisiert werden.

Darüber hinaus stellten die Google-Ingenieure vor, dass TensorFlow.js auf Websites und drahtlose Terminals anwendbar ist und über eine große Anzahl von Anwendungsszenarien für maschinelles Lernen verfügt, wie etwa Augmented Reality (AR), gesten- und körperbasierte Interaktion, Spracherkennung, barrierefreie Websites, semantische Analyse, intelligente Konversationen und Webseitenoptimierung.
Derzeit unterstützt TensorFlow.js bereits Funktionen wie Bildklassifizierung, Objekterkennung, Haltungserkennung, Sprachbefehlserkennung und Textklassifizierung. Beispielsweise kann das eingeführte WeChat-Applet-Plug-In mithilfe einer API umfangreiche Funktionen erreichen.
Erwarten Sie weitere Überraschungen von Google und TensorFlow
Zusätzlich zu den oben genannten TensorFlow-Funktionen werden auch Tf.distribute, das TensorFlow-Optimierungs-Toolkit und einige Unternehmensanwendungsfälle von TensorFlow vorgestellt. Schließlich betrat Liang Xinping erneut die Bühne, um über die Community-Situation von TensorFlow zu berichten.

In der Kernkonstruktion von TensorFlow sind mehr als 2135Mitwirkende. haben 109Google-Entwicklerexperten für maschinelles Lernen; mehr als 46 TensorFlow-Benutzergruppe. Er beschreibt auch ausführlich, wie Sie der TensorFlow-Community beitreten können.
Mit dem Ende der TensorFlow RoadShow endete auch die Google Developer Conference mit allen Terminen und einem erfolgreichen Abschluss. Für alle technischen Entwickler dürften die wertvollen Informationen dieser Veranstaltung viel intuitiver sein, als sich die Pressekonferenz von Apple anzuschauen.
Freuen wir uns auf den nächsten Durchbruch von TensorFlow und hoffen, dass Google im KI-Bereich noch leistungsfähiger werden kann. Wir sehen uns nächstes Jahr wieder beim GDD!
