HyperAI

TensorFlow a Maintenant Quatre Ans. Quelle Est La Chose La Plus Importante ? @GDD 2019

il y a 6 ans
Information
Dao Wei
特色图像

Le deuxième jour du GDD, les développeurs étaient toujours enthousiastes et le TensorFlow RoadShow était bondé. Cela fait quatre ans que TensorFlow a été lancé en 2015. Google a construit tout un écosystème autour de TensorFlow, et sa base d'utilisateurs ne cesse de croître. Alors, qu'est-ce que l'équipe TensorFlow de Google nous a apporté cette fois-ci ?

Hier, lors de la conférence GDD, Google a fait une présentation détaillée de ses récents développements et de ses nouveaux produits. Le deuxième jour du GDD, l'accent a été mis sur TensorFlow, publié depuis quatre ans.

Tôt ce matin, Apple a organisé une conférence de lancement de nouveaux produits et a lancé la série iPhone 11 à triple caméra. De plus, de nouveaux produits tels que l'iPad, l'Apple Arcade, l'Apple TV+ et l'iApple Watch Series 5 ont également été lancés.

Si Apple stimule le groupe de consommateurs avec de nouveaux produits, de l'autre côté de l'océan, la conférence des développeurs de Google se déroule de manière discrète et régulière, présentant en détail ses dernières avancées technologiques et fournissant l'aide la plus pratique aux développeurs.

Le RoadShow spécial TensorFlow a rempli le programme de la journée entière. Alors, quels sont les points forts apportés par l’équipe TensorFlow au GDD d’aujourd’hui ?

TensorFlow : le framework d'apprentissage automatique le plus populaire

Lors du TensorFlow RoadShow, son chef de produit Asie-Pacifique, Liang Xinping, a été le premier à apparaître et à partager « Le présent et l'avenir de l'apprentissage automatique » et à décrire le développement de TensorFlow.

Liang Xinping a analysé le développement de TensorFlow

Il y a trois points clés dans le développement actuel de l'apprentissage automatique :Ensembles de données, puissance de calcul et modèles.Tensorflow est la plateforme d'apprentissage automatique la plus performante en phase avec la tendance de l'apprentissage automatique.

Depuis sa sortie en 2015,TensorFlow a été continuellement amélioré et mis à jour.À ce jour, il y a plus de 41 millionsTéléchargements, plus de 50 000 foisVolume de soumission,9900 foisDemandes de modification de code, et Plus de 1 800Contributeurs.

TensorFlow dispose d'une large base d'utilisateurs

En raison de ses fonctions puissantes, il existe de plus en plus de cas réels utilisant TensorFlow, et de nombreuses entreprises et institutions l'utilisent pour la recherche et le développement. De plus, le site Web chinois TensorFlow a également été lancé et la communauté chinoise et les ressources techniques s'élargissent de jour en jour.


Après avoir présenté ces situations, une présentation complète de TensorFlow a été immédiatement lancée et les ingénieurs de son équipe ont donné une introduction détaillée aux progrès de TensorFlow.

Points clés : TensorFlow 2.0 


La version 2.0 tant attendue est finalement sortie en 2019. En juin de cette année, la version bêta de TensorFlow 2.0 est sortie. Lors du GDD d'aujourd'hui, les ingénieurs ont annoncé que TensorFlow 2.0 RC est désormais disponible. Par rapport à la version 1.0, la nouvelle version est centrée autourFacilité d'utilisation, hautes performances et évolutivité.Trois aspects ont été améliorés.

La chose la plus attrayante est que l’utilisation de Keras  En tant qu'API de haut niveau, optimisez la valeur par défaut Exécution impatiente , supprimant les fonctionnalités en double et fournissantAPI unifiée  .

Les ingénieurs présentent les améliorations apportées à TensorFlow 2.0 autour de Keras

TensorFlow 2.0 utilise Keras et Eager Execution, ce qui facilite la création de modèles et permet un déploiement robuste des modèles dans les environnements de production sur n'importe quelle plate-forme.

Après avoir présenté les détails de la version 2.0, l'ingénieur de Google Liang Yanhui a également donné une introduction détaillée à la méthode de mise à niveau de la version 1.0 à la version 2.0.

La migration des versions internes a déjà commencé au sein de Google, et le site Web officiel fournit également des guides et des outils détaillés de migration de code. Si les utilisateurs ont vraiment besoin ou comptent sur une version 1.0 de l'API, ils peuvent facilement la migrer vers la version 2.0 selon le guide.

Alors, quels aspects spécifiques de TensorFlow 2.0 méritent d’être pris en compte ? Les ingénieurs de Google ont réalisé une introduction détaillée à partir des perspectives suivantes.

TF.Text : Formation des modèles PNL 


En tant qu’orientation importante dans l’apprentissage automatique, le traitement du langage naturel a une énorme demande du marché. TF officiellement lancé et mis à niveau TF.Texte,Il fournit de puissantes capacités de traitement de texte pour TensorFlow 2.0 et est compatible avec le mode graphique dynamique.

TF.Text présente de nombreux avantages

TF.Text est une bibliothèque TensorFlow 2.0 qui peut être facilement installée à l'aide de la commande PIP. Il peut exécuter des routines de prétraitement dans des modèles textuels et fournit davantage de fonctionnalités et d'opérations pour la modélisation du langage qui ne sont pas disponibles dans les composants TensorFlow de base.

La fonction la plus courante estTokenisation de texte. La tokenisation est le processus consistant à diviser une chaîne en jetons. Ces jetons peuvent être des mots, des chiffres, des signes de ponctuation ou une combinaison de ces éléments.

Tokenizer de TF.Text Un nouveau type de tenseur pour la reconnaissance de texte, Ragged Tensors. Et fournitTrois nouveaux Tokenizers.Le plus basique d'entre eux est le Whitespace Tokenizer, qui divise une chaîne UTF-8 en caractères d'espace définis par ICU (tels que l'espace, la tabulation, la nouvelle ligne).

La bibliothèque TF.Text comprend égalementNormalisation, n-grammes et contraintes de séquence de jetonsEt d'autres fonctions. L’utilisation de TF.Text présente de nombreux avantages, notamment le fait que les utilisateurs n’ont pas à se soucier de la cohérence de la formation et de la prédiction, et n’ont pas besoin de gérer eux-mêmes les scripts de prétraitement.

TensorFlow Lite : Déploiement de l'apprentissage automatique en périphérie


Deux ingénieurs logiciels seniors de Google, Wang Tiezhen et Liu Renjie, ont présenté les mises à jour fonctionnelles et les détails techniques de TensorFlow Lite.

Aperçu de la feuille de route de TensorFlow Lite

TensorFlow Lite est un framework permettant de déployer des applications d'apprentissage automatique sur des téléphones mobiles et des appareils embarqués.Les principales raisons du choix du déploiement sur le client se reflètent dans les trois points suivants :

Premièrement : il n’y a presque aucun délai, ce qui peut offrir une expérience utilisateur stable et rapide ;

Deuxièmement : il n’a pas besoin d’être connecté à Internet et peut être utilisé dans des environnements où il n’y a pas d’Internet ou où l’Internet est très mauvais ;

Troisièmement : protection de la confidentialité, les données ne seront pas transmises au cloud et tout le traitement peut être effectué sur le terminal.

Compte tenu de ces avantages, il existe déjà un vaste marché pour les applications qui déploient l’apprentissage automatique sur le terminal basé sur TensorFlow Lite, et dans la version 2.0, la capacité de déployer des modèles a également été améliorée.


Par exemple, l'application Xianyu est utilisée dans le scénario de location.Étiquetez automatiquement les images à l’aide de TensorFlow Lite.Amélioration de l’efficacité locative des maisons ; Ecovacs Robotics a déployé TensorFlow Lite dans ses robots balayeurs pour éviter automatiquement les obstacles, etc. TensorFlow Lite est également largement utilisé dans les produits Google, tels que Google Photos, Input Method, Cloud Assistant, etc.

Selon les statistiques, il y aPlus de 2 milliardsUn appareil mobile avec une application basée sur TensorFlow Lite installée.

Cependant, il existe encore de nombreux défis dans le déploiement de l’apprentissage automatique sur le client. Par exemple, comparé au cloud,Le terminal dispose de moins de puissance de calcul et de mémoire, et le déploiement sur le terminal doit prendre en compte la consommation d'énergie. TensorFlow Lite a également apporté des optimisations et des améliorations pour répondre à ces défis afin de faciliter le déploiement de l'apprentissage automatique sur le terminal.


Le port d'implémentation final de TensorFlow Lite peut non seulement être déployé sur Android et iOS, mais convient également aux systèmes embarqués (tels que Raspberry Pi), aux accélérateurs matériels (tels que Edge TPU) et aux microcontrôleurs (MCU).

TensorFlow arrive sur les microcontrôleurs

Actuellement, il a été appliqué à la classification d'images, à la détection d'objets, à l'estimation de la posture, à la reconnaissance vocale et à la reconnaissance des gestes, et des fonctions telles que BERT, le transfert de style et le réveil vocal seront publiées plus tard.

Comment déployer votre propre modèle dans TensorFlow Lite ? Liu Renjie a expliqué que cela ne nécessite que trois étapes : la formation du modèle TF, la conversion au format TF Lite et le déploiement du modèle sur l'appareil final. Selon la bibliothèque intégrée TF 2.0, cela peut être réalisé avec seulement quelques appels de code.

TensorFlow.js : une plateforme pour créer des applets WeChat

TensorFlow.js est une plateforme d'apprentissage en profondeur personnalisée pour JavaScript.Vous pouvez exécuter des modèles existants, recycler des modèles existants et former de nouveaux modèles.

Images en direct d'un ingénieur présentant TensorFlow.js

Pour augmenter sa praticité,TensorFlow.js prend en charge plusieurs plates-formes :Navigateur, terminal sans fil (tel que l'applet WeChat), serveur, ordinateur de bureau. En plus de pouvoir exécuter des modèles d'apprentissage automatique sur plusieurs plates-formes, vous pouvez également former des modèles, bénéficier d'une accélération GPU et prendre en charge automatiquement WebGL.

Lors de la démonstration en direct, ils ont présenté Modiface, un programme d'essayage virtuel basé sur TensorFlow.js. Grâce à ce cadre, nous avons crééL'application d'essai de maquillage virtuel la plus petite et la plus rapide.Il est rapporté que des fonctions telles que la conversion de coiffure, la simulation de conversion d'âge et la détection de la qualité de la peau seront réalisées à l'avenir.

Utilisez TensorFlow.js pour implémenter des lunettes virtuelles avec de petites applications

De plus, les ingénieurs de Google ont montré que TensorFlow.js est applicable aux sites Web et aux terminaux sans fil et dispose d'un grand nombre de scénarios d'application d'apprentissage automatique, tels que la réalité augmentée AR, l'interaction basée sur les gestes et le corps, la reconnaissance vocale, les sites Web sans barrière, l'analyse sémantique, les conversations intelligentes et l'optimisation des pages Web.

Actuellement, TensorFlow.js prend déjà en charge des fonctions telles que la classification d'images, la reconnaissance d'objets, la reconnaissance de posture, la reconnaissance de commandes vocales et la classification de texte. Par exemple, le plug-in d'applet WeChat lancé peut réaliser des fonctions riches en utilisant une seule API.

  Attendez-vous à d'autres surprises de la part de Google et de TensorFlow

En plus des fonctions TensorFlow mentionnées ci-dessus, Tf.distribute, la boîte à outils d'optimisation TensorFlow et certains cas d'application d'entreprise de TensorFlow sont également introduits. Enfin, Liang Xinping est de nouveau monté sur scène pour partager la situation communautaire de TensorFlow.

 Il existe de nombreux utilisateurs formidables dans la communauté TensorFlow

Dans la construction de base de TensorFlow, plus de 2135Contributeurs. avoir 109Experts développeurs Google en apprentissage automatique ; plus que 46 Groupe d'utilisateurs TensorFlow. Il détaille également comment rejoindre la communauté TensorFlow.

Avec la fin du TensorFlow RoadShow, la conférence des développeurs Google a également mis fin à tous ses programmes et s'est conclue avec succès. Pour tous les développeurs techniques, les précieuses informations apportées par cet événement devraient être beaucoup plus intuitives que de regarder la conférence de presse d'Apple.

Attendons avec impatience la prochaine avancée de TensorFlow et espérons que Google pourra être encore plus puissant dans le domaine de l’IA. On se retrouve au GDD l’année prochaine !