HyperAI

Kann Apple Die KI-Welle Noch Einholen?

vor 7 Jahren
Empfohlene Liste
Information
Sparanoid
特色图像

Wer heutzutage auf einer Konferenz nicht über KI spricht, ist nicht auf dem neuesten Stand. Einige Internetnutzer scherzten einmal, dass es bei der diesjährigen Google I/O-Konferenz um Folgendes gehen werde: Produkte der Google-Serie + KI.

Das Gleiche gilt für Apple. In den letzten Jahren gab es im Hardwarebereich keine großen Innovationen und die KI erzählt ihre Geschichte erst langsam.

Der Apple, auf den Apple-Fans sehnsüchtig wartenKonzertAuf der Pressekonferenz stellte Apple gleich drei neue iPhones und die Apple Watch Series 4 vor.

Auch wenn die Verbesserungen bei der Hardware nicht bemerkenswert sind, wird zumindest die Dual-SIM-Dual-Standby-Funktion realisiert, von der viele träumen. Lassen Sie mich Sie in aller Bescheidenheit fragen: Haben Sie noch eine Niere zu verkaufen?

Kann Apple die KI-Welle noch einholen?

Im Vergleich dazu ist das größte Highlight dieser Konferenz Apples Fortschritte im Bereich KI.

Der KI-Chip, der die Liste der Drachentöter anführt

Auf der Pressekonferenz wurde ausführlich der A12 Bionic Chip vorgestellt. Dieser Chip gilt als der leistungsstärkste Chip der Geschichte und bietet ausreichend Rechenleistung für KI-Anwendungen.

Kann Apple die KI-Welle noch einholen?
A12 Bionic Chip-Rendering

A12 ist der zweite bionische Chip von Apple. Man kann sagen, dass der Chip der vorherigen Generation A11 einen Trend ausgelöst hat. Beängstigend ist, dass der A12 eine weitere enorme Leistungssteigerung aufweist, die etwa der Hälfte der Leistung des A11 der vorherigen Generation entspricht.

Die Hauptbestandteile dieses Chips sind eine 6-Kern-CPU, eine 4-Kern-GPU und eine Octa-Core-Neuralnetzwerk-Engine.

Die Stärke der neuronalen Netzwerk-Engine liegt in ihrer Fähigkeit, Matrizenmultiplikationen und Gleitkommaverarbeitung zu bewältigen. Es soll 5 Billionen Operationen pro Sekunde bewältigen können und übertrifft damit den A11 bei weitem. Darüber hinaus wird die neuronale Netzwerk-Engine für Core ML geöffnet und die maschinellen Lernfähigkeiten des A12-Chips werden im Vergleich zu zuvor um das Neunfache gesteigert, während der Energieverbrauch auf ein Zehntel des Originals reduziert wird.

Das neue iPhone, das den A12-Chip verwendet, verfügt über zahlreiche Hightech-Funktionen, wie etwa KI-Anwendungen zum Aufnehmen von Fotos, Bewegungsmessung, Punktevergabe bei Schüssen, Einschätzung der Körperhaltung von Sportlern und Aufzeichnung von Bewegungsbahnen. Anhand dieser Szenen können wir einen Eindruck von seiner kraftvollen Leistung gewinnen.

Basierend auf diesem Chip kann das iPhone weitere coole Aufgaben bewältigen. Wie also erreicht das iPhone diese KI-Funktionen?

Dies bringt uns zu Core ML, dem 2017 von Apple eingeführten Framework für maschinelles Lernen.

Core ML öffnet die Ren- und Du-Meridiane

Core ML ist ein Framework für maschinelles Lernen, das auf Sprachen wie Accelerate, BNNS und Metal Performance Shaders basiert. Es unterstützt viele KI-Technologien, wie etwa computergestützte Bildanalyse, natürliche Sprachverarbeitung (wie etwa die NSLinguisticTagger-Klasse) und das GameplayKit-Framework zur Auswertung erlernter Entscheidungsbäume.

Kann Apple die KI-Welle noch einholen?
Funktionsstrukturdiagramm von Core ML

Apple hat Core ML erstmals beim iOS 11-Launch-Event im Mai letzten Jahres vorgestellt. Es kann Modelle für maschinelles Lernen in mobile Apps integrieren, wodurch die Laufstabilität von Apps verbessert und gleichzeitig der RAM- und Batterieverbrauch reduziert wird, sodass Mobiltelefone KI-Anwendungen besser ausführen können.

Kann Apple die KI-Welle noch einholen?

Die Rolle von Core ML besteht darin, KI-Modelle auf Mobiltelefone anzuwenden

Die Anwendung der aufkommenden KI-Technologie auf Mobiltelefonen ist ein unüberwindbares Problem. Derzeit wird Core ML jedoch häufig in Bereichen der App-Entwicklung verwendet, beispielsweise zur Bilderkennung, Sprachübersetzung und Objekterkennung. Man kann sagen, dass die Integration der Technologie für maschinelles Lernen in Mobiltelefone für Apple der entscheidende Punkt ist.

Nach der Einführung von Core ML brachte Apple sukzessive Core ML 2 und das GPU-Beschleunigungstool Create ML (zum Trainieren von KI-Modellen auf Apple-Computern) auf den Markt.

Kann Apple die KI-Welle noch einholen?
Core ML 2-Startveranstaltung

Core ML 2 ist eine aktualisierte Version von Core ML, die 30% schneller ausführt, 16-Bit-Gleitkommazahlen unterstützt und mit einem Modellkonverter ausgestattet ist. Dieser erstaunliche Konverter ermöglicht Ihnen die Verwendung von Core ML mit anderen Frameworks für maschinelles Lernen usw. Derzeit werden Keras, scikit-learn, XGBoost, LibSVM, TensorFlow von Google, Caffe von Facebook usw. unterstützt. Dies steigert ihre Leistungsfähigkeit erheblich.

Obwohl Sie so viel gesagt haben, verstehen Sie es immer noch nicht ganz.Beginnen wir mit BeCasso, einer Bildverarbeitungssoftware, und sehen wir uns an, wie Core ML die Ausführung von KI-Anwendungen auf dem iPhone ermöglicht.

Bietet einen Bonus-Buff für KI-Maler

Auf der diesjährigen WWDC-Konferenz hat Digital Masterpieces eine App vorgestellt, mit der sich Bildstilübertragungen durchführen lassen: BeCasso. Damit lassen sich Bilder aus dem echten Leben in Ölgemälde im antiken Stil verwandeln. Und es läuft auf dem iPhone dank Bionic Chip und Core ML.

Kann Apple die KI-Welle noch einholen?

+

Kann Apple die KI-Welle noch einholen?

=

Kann Apple die KI-Welle noch einholen?
BeCasso-Bildstilübertragung

BeCasso erreicht die Stilübertragung durch tiefe neuronale Netzwerke, aber der Migrationsprozess verbraucht viel RAM und Rechenleistung, was hohe Anforderungen an Speicher und Prozessoren stellt. Wenn die Bedingungen nicht ausgereift sind, kann BeCasso die Stilübertragung nur auf Bildern mit geringer Pixelanzahl durchführen.

Das Core ML-Framework ermöglicht die Ausführung auf Mobiltelefonen. Core ermöglicht es BeCasso, den Speicher während der Ausführung zu optimieren und so viel verfügbaren Speicherplatz freizugeben, während der Bionic-Chip ihm ausreichend Rechenleistung zur Verfügung stellen kann. BeCasso kann die Stilübertragung für ein großes HD-Bild innerhalb einer Sekunde abschließen. Es ist nicht schwer zu erraten, dass das neue iPhone eine noch bessere Leistung bringen wird.

Apples KI-Ambitionen

Neben KI-Chips und dem Machine-Learning-Framework Core ML hat Apple in den letzten Jahren große Anstrengungen in die Entwicklung von KI gesteckt.

Der Sprachassistent Siri wurde früher oft kritisiert und gilt heute als der am meisten verbesserte Sprachassistent, insbesondere nachdem Apple 2017 Workflow übernommen und in Siri integriert hat, um die leistungsstarke App Siri Shortcuts auf den Markt zu bringen. Es ist möglich, Apps von Drittanbietern per Sprache zu öffnen, und die Intelligenz und Bedienbarkeit sind erstaunlich.

Im Februar dieses Jahres wurde der lang erwartete Smart Speaker HomePod mit Raumüberwachungstechnologie und Siri-Assistent ausgestattet. Seine „Spatial Awareness“ kann den Raum intelligent erkennen und die Audioqualität anpassen.

Kann Apple die KI-Welle noch einholen?
Intelligente Lautsprecher wie der HomePod sind bei großen Herstellern zum Standard für den KI-Einsatz geworden.

Gesichtserkennung (Face ID) ist nichts Neues. Es ist sicher, schnell und einfach zu verwenden. Die hochentwickelten Technologien von Apple, darunter das leistungsstarke Kamerasystem, die sichere Enklave und die Neural Engine, bieten neue Möglichkeiten zum Entsperren, Anmelden und Bezahlen.

Darüber hinaus gibt es die Augmented-Reality-Entwicklungsplattform ARkit, die auf dieser Pressekonferenz vorgestellt wurde. Es ist für iPhone- und iPad-Plattformen geeignet, nutzt die Kamera, CPU, GPU und Bewegungssensoren des Geräts und stützt sich auf die riesige iOS-Benutzerbasis, um die weltweit größte AR-Plattform zu bilden.

Kann Apple die KI-Welle noch einholen?
ARkit


Natürlich lag Apples größter Schritt in den letzten Jahren im Ausbau der KI-Talente.

So stellte das Unternehmen im April beispielsweise John Giannandrea ein, den ehemaligen Leiter von Google AI.

Mit der kontinuierlichen Einführung von KI-Technologie durch Apple hat die Entwicklung von KI-Modellen auf Mobiltelefonen ermutigende Fortschritte gemacht. Was die Entwicklung von KI-Anwendungen in Zukunft einschränken wird, sind nicht mehr Rechenleistung und Arbeitsspeicher, sondern der Mangel an KI-Modellen. In dieser Hinsicht kann der Cloud-Dienst von Apple Entwicklern beim Erstellen von KI-Modellen helfen und die zum Trainieren dieser Modelle erforderlichen Daten bereitstellen.

Was Apple uns sonst noch bringt, können wir nur auf die nächste Pressekonferenz warten. (Weiter beschweren?)

Zurück zur Pressekonferenz von Apple: Egal, wie sehr sich die Leute beschweren, es ist immer noch eine großartige Show. Sogar der Chef von Huawei schickte nach der Pressekonferenz von Apple einen vielsagenden Weibo-Beitrag mit der Aussage „Es ist stabil“.

Kann Apple die KI-Welle noch einholen?
Ein Weibo-Post eines Huawei-Chefs nach der Apple-Konferenz

Doch die Begeisterung der Bevölkerung lässt sich dadurch nicht bremsen. Schließlich wollen sie immer noch die Frühlingsfest-Gala sehen, äh, die Apple-Konferenz sehen.

Ursprünglich veröffentlicht auf dem offiziellen WeChat-Konto: HyperAI