HyperAI

Apple Peut-il Encore Rattraper Son Retard Sur La Vague De L’ia ?

il y a 7 ans
Liste recommandée
Information
Sparanoid
特色图像

Si vous ne parlez pas d’IA lors d’une conférence de nos jours, vous serez dépassé. Certains internautes ont plaisanté en disant que la conférence Google I/O de cette année serait consacrée aux produits de la série Google + à l'IA.

Il en va de même pour Apple. Il n’y a pas eu d’innovations majeures dans le domaine du matériel ces dernières années, et celui-ci raconte lentement son histoire avec l’IA.

L'Apple que les fans d'Apple attendent avec impatienceConcertLors de la conférence de presse, Apple a lancé trois nouveaux iPhones et l'Apple Watch Series 4 à la fois.

Bien que les améliorations matérielles ne soient pas remarquables, elles réalisent au moins la fonction double SIM double veille dont beaucoup de gens rêvent. Laissez-moi vous demander humblement, avez-vous encore un rein à vendre ?

Apple peut-il encore rattraper son retard sur la vague de l’IA ?

En comparaison, le point fort de cette conférence est le progrès d’Apple en matière d’IA.

La puce alimentée par l'IA qui arrive en tête de la liste des tueurs de dragons

La conférence de presse a consacré un long moment à la présentation de la puce A12 Bionic. Cette puce, connue comme la puce la plus puissante de l’histoire, fournit une puissance de calcul suffisante pour les applications d’IA.

Apple peut-il encore rattraper son retard sur la vague de l’IA ?
Rendu de la puce A12 Bionic

L'A12 est la deuxième puce bionique commercialisée par Apple. On peut dire que la puce de la génération précédente, l'A11, a lancé une tendance. Ce qui est effrayant, c’est que l’A12 a réalisé une autre énorme amélioration en termes de performances, qui représente environ la moitié de celles de la génération précédente de l’A11.

Les principaux composants de cette puce sont un processeur à 6 cœurs, un GPU à 4 cœurs et un moteur de réseau neuronal à huit cœurs.

La puissance du moteur de réseau neuronal réside dans sa capacité à gérer la multiplication matricielle et le traitement en virgule flottante. Il serait capable d'effectuer 5 000 milliards d'opérations par seconde, dépassant de loin l'A11. De plus, le moteur du réseau neuronal sera ouvert à Core ML, et les capacités d'apprentissage automatique de la puce A12 seront multipliées par 9 par rapport à avant, tandis que la consommation d'énergie sera réduite à un dixième de l'original.

Le nouvel iPhone, qui utilise la puce A12, présente de nombreuses opérations de haute technologie, telles que des applications de prise de photos IA, de mesure de mouvement, de notation de tir, d'estimation de la posture des athlètes et d'enregistrement de trajectoire de mouvement. À travers ces scènes, nous pouvons avoir un aperçu de sa performance puissante.

Grâce à cette puce, l'iPhone peut gérer des tâches plus intéressantes. Alors, comment l’iPhone parvient-il à réaliser ces fonctions d’IA ?

Cela nous amène à Core ML, le framework d’apprentissage automatique lancé par Apple en 2017.

Core ML ouvre les méridiens Ren et Du

Core ML est un framework d'apprentissage automatique basé sur des langages tels que Accelerate, BNNS et Metal Performance Shaders. Il prend en charge de nombreuses technologies d'IA, telles que l'analyse d'images basée sur la vision par ordinateur, le traitement du langage naturel (comme la classe NSLinguisticTagger) et le framework GameplayKit pour évaluer les arbres de décision appris.

Apple peut-il encore rattraper son retard sur la vague de l’IA ?
Diagramme de la structure fonctionnelle du Core ML

Apple a lancé Core ML pour la première fois lors de l'événement de lancement d'iOS 11 en mai dernier. Il peut intégrer des modèles d'apprentissage automatique dans les applications mobiles, améliorant la stabilité d'exécution des applications tout en réduisant la consommation de RAM et de batterie, permettant aux téléphones mobiles de mieux exécuter les applications d'IA.

Apple peut-il encore rattraper son retard sur la vague de l’IA ?

Le rôle de Core ML est d'appliquer des modèles d'IA aux téléphones mobiles

L’application de la technologie émergente de l’IA aux téléphones mobiles est un problème insurmontable. Mais à l’heure actuelle, Core ML est largement utilisé dans les domaines de développement d’applications tels que la reconnaissance d’images, la traduction de langues et la détection d’objets. On peut dire que c’est le point clé pour Apple d’intégrer la technologie d’apprentissage automatique dans les téléphones mobiles.

Après la mise en service de Core ML, Apple a lancé successivement Core ML 2 et l'outil d'accélération GPU Create ML (utilisé pour former des modèles d'IA sur les ordinateurs Apple).

Apple peut-il encore rattraper son retard sur la vague de l’IA ?
Événement de lancement de Core ML 2

Core ML 2 est une version améliorée de Core ML, qui exécute 30% plus rapidement, prend en charge les nombres à virgule flottante 16 bits et est livré avec un convertisseur de modèle. Ce convertisseur étonnant vous permet d'utiliser Core ML avec d'autres frameworks d'apprentissage automatique, etc. Actuellement pris en charge sont Keras, scikit-learn, XGBoost, LibSVM, TensorFlow de Google, Caffe de Facebook, etc. Cela améliore considérablement leur puissance.

Après avoir tant dit, tu ne comprends toujours pas tout à fait.Commençons par BeCasso, un logiciel de traitement d’images, et voyons comment Core ML permet aux applications d’IA de s’exécuter sur l’iPhone.

Fournit un bonus aux peintres IA

Lors de la conférence WWDC de cette année, Digital Masterpieces a présenté une application capable de réaliser un transfert de style d'image - BeCasso, qui peut transformer des images réelles en une peinture à l'huile de style antique. Et il fonctionne sur l'iPhone grâce à la puce Bionic et Core ML.

Apple peut-il encore rattraper son retard sur la vague de l’IA ?

+

Apple peut-il encore rattraper son retard sur la vague de l’IA ?

=

Apple peut-il encore rattraper son retard sur la vague de l’IA ?
Transfert de style d'image BeCasso

BeCasso réalise un transfert de style grâce à des réseaux neuronaux profonds, mais le processus de migration consomme beaucoup de RAM et de puissance de calcul, ce qui impose des exigences élevées à la mémoire et aux processeurs. Lorsque les conditions ne sont pas matures, BeCasso ne peut effectuer un transfert de style que sur des images à faible pixel.

Le framework Core ML lui donne la possibilité de fonctionner sur les téléphones mobiles. Core permet à BeCasso d'optimiser la mémoire pendant l'exécution, libérant ainsi beaucoup d'espace disponible, tandis que la puce bionique peut lui fournir une puissance de calcul suffisante. BeCasso peut effectuer le transfert de style d'une grande image HD en une seconde. Il n’est pas difficile de deviner que le nouvel iPhone sera encore plus performant.

Les ambitions d'Apple en matière d'IA

En plus des puces d’IA et du framework d’apprentissage automatique Core ML, Apple a consacré beaucoup d’efforts au développement de l’IA ces dernières années.

L'assistant vocal Siri est passé du statut d'assistant critiqué à celui d'assistant vocal le plus amélioré aujourd'hui, en particulier après qu'Apple a acquis Workflow en 2017 et l'a intégré à Siri pour lancer la puissante application Siri Shortcuts. Il est possible d'ouvrir des applications tierces par la voix, et son intelligence et son opérabilité sont étonnantes.

En février de cette année, l'enceinte intelligente tant attendue HomePod a été équipée de la technologie de surveillance spatiale et de l'assistant Siri. Sa « Spatial Awareness » peut détecter intelligemment l’espace et ajuster la qualité audio.

Apple peut-il encore rattraper son retard sur la vague de l’IA ?
Les enceintes intelligentes comme HomePod sont devenues la norme pour le déploiement de l’IA par les principaux fabricants.

La reconnaissance faciale (Face ID) n’a rien de nouveau. Il est sécurisé, rapide et facile à utiliser. Les technologies sophistiquées d'Apple, notamment son puissant système de caméra, son enclave sécurisée et son moteur neuronal, offrent de nouvelles façons de déverrouiller, de se connecter et de payer.

De plus, il y a la plateforme de développement de réalité augmentée ARkit qui a été présentée lors de cette conférence de presse. Il convient aux plates-formes iPhone et iPad, utilisant l'appareil photo, le processeur, le GPU et les capteurs de mouvement de l'appareil, et s'appuyant sur l'énorme base d'utilisateurs iOS pour former la plus grande plate-forme AR au monde.

Apple peut-il encore rattraper son retard sur la vague de l’IA ?
ARkit


Bien sûr, la plus grande initiative d’Apple ces dernières années a été la réserve de talents en IA.

Par exemple, en avril, elle a recruté John Giannandrea, l’ancien directeur de Google AI.

Avec l'introduction continue de la technologie d'IA par Apple, le développement de modèles d'IA sur les téléphones mobiles a montré des progrès encourageants. Ce qui limitera le développement des applications d’IA à l’avenir ne sera plus la puissance de calcul et la RAM, mais le manque de modèles d’IA supplémentaires. À cet égard, le service cloud d’Apple peut aider les développeurs à créer des modèles d’IA et à fournir les données nécessaires à la formation de ces modèles.

Quant à ce qu'Apple nous apportera d'autre, nous ne pouvons qu'attendre la prochaine conférence de presse. (Continuer à se plaindre ?)

De retour à la conférence de presse d'Apple, peu importe les plaintes des gens, c'est toujours un spectacle magnifique. Même le patron de Huawei a envoyé un message significatif sur Weibo après la conférence de presse d'Apple, affirmant que « c'est stable ».

Apple peut-il encore rattraper son retard sur la vague de l’IA ?
Un message Weibo d'un dirigeant de Huawei après la conférence Apple

Mais cela ne peut pas arrêter l’enthousiasme du grand public. Après tout, ils veulent toujours regarder le gala du festival du printemps, ah, regarder la conférence Apple.

Initialement publié sur le compte officiel WeChat : HyperAI