Kommt Google Cloud Über Capital Online Nach China? Ist AutoML Einsatzbereit?

Von Super Neuro
Bevor ich auf Google Search antworten konnte, erhielt ich die Nachricht, dass Google Cloud in China Fuß fassen würde.
Könnte es sein, dass AutoML wirklich bequem genutzt werden kann?Kommt Google Cloud?

Heute Nachmittag wurde der offizielle WeChat-Account von Capital Online veröffentlicht „Google Cloud wird über Capital Online in China Fuß fassen.“Nachricht.
Seit Google-Führungskräfte vor einigen Monaten häufig China besuchten, ein Institut für künstliche Intelligenz gründeten und erklärten, sie hätten den chinesischen Markt nie aufgegeben, freuen sich viele Menschen auf die Rückkehr von Google-bezogenen Produkten.
Obwohl Capital Online den Artikel kurz nach seiner Veröffentlichung löschte, erklärte das Unternehmen privat: „Capital Online hat nur einen Agenturvertrag mit dem Ausland, nicht mit China, wie im Artikel erwähnt.“
Der Ton dieses Artikels ist jedoch bejahend und die Formulierung klar. Über die Gründe für die Löschung und Ablehnung des Artikels lohnt es sich noch immer nachzudenken.
Obwohl es nicht sicher ist, ob Google Cloud problemlos in China Fuß fassen kann und es einige Zeit dauern kann, bis AutoML bequem genutzt werden kann, gibt es dennoch viele andere ähnliche Dienste.Außer AutoML? Es gibt zwar viele vorgefertigte Frameworks für Machine-Learning-Modelle, die direkt verwendet werden können, um die Kosten für die Erstellung von KI-Modellen zu senken, und viele Unternehmen haben auch ihre eigenen ML-Tools als Open Source bereitgestellt.
Allerdings können diese Frameworks noch nicht den gleichen Standard wie früher erreichen – die Interoperabilität der Frameworks ist schwierig und es gibt derzeit keine effektive Lösung, die es ermöglicht, das ML-Framework mit beliebigen Anwendungen zu verbinden. Wenn Unternehmen mehrere ML-Modell-Frameworks gleichzeitig verwenden müssen, müssen sie dennoch einen Großteil der Entwicklungsarbeit selbst erledigen.
Um dieses Problem zu lösen, haben Salesforce und Oracle Tools entwickelt, die diese Open-Source-ML-Modell-Frameworks in verschiedenen Anwendungen verbinden können.
Obwohl es für die oben genannten Probleme bereits Lösungen auf dem Markt gab, wie etwa die Einrichtung miteinander verbundener APIs, etwa der Python-JSON-API, ging bei dieser Lösung beim Andocken die Leistung des ML-Modell-Frameworks verloren.
Auch wenn das ML-Modell das Docking-Problem vorübergehend über die API löst, müssen Unternehmen dennoch einen dedizierten Modellserver erstellen, wenn sie es kommerziell nutzen möchten. Der Aufbau eines Servers ist nicht nur kostspielig, sondern auch ziemlich kompliziert. Beispielsweise kann das Erstellen einer GPU-Version des TensorFlow-Dienstes mehrere Tage dauern.
Daher sind die Hauptprobleme, die derzeit die weitverbreitete Verwendung von ML-Modell-Frameworks behindern, das Fehlen standardisierter Anwendungsprogrammierschnittstellen und die hohe Schwelle für den Aufbau von Modellservern.
Als Ergebnis sind Frameworks entstanden, die diese ML-Modelle in verschiedenen Anwendungen verbinden können. TransmogrifAI: ML-Framework in der Cloud TransmogrifAI ist ein ML-Framework basierend auf der Apache Spark-Engine, das Feature Engineering, Feature-Auswahl und Modelltraining durchführen kann. Darüber hinaus können vorhandene ML-Modelle integriert werden, um für jede Anwendung das kostengünstigste ML-Modell zu finden, ohne dass Unternehmen einen separaten Modellserver erstellen müssen.
Das Framework wurde von Salesforce entwickelt. Dieses erfahrene Enterprise-Service-Unternehmen gibt sich nicht mit dem Status Quo zufrieden und hat auch den KI-Trend schnell aufgeholt.
Vor Kurzem haben sie TransmogrifAI als Open Source freigegeben.
Die vom Unternehmen entwickelte KI-Plattform Einstein ist eines der größten Machine-Learning-Projekte der Branche und verfügt über fortschrittliche Machine-Learning-Algorithmen, natürliche Sprachverarbeitung und intelligente Data-Mining-Funktionen. Die Plattform kann jetzt mit den meisten ML-Modellen auf dem Markt verbunden werden und diese vereinfachen.
Was Einstein all dies ermöglicht, ist TransmogrifAI.

TransmogrifAI nutzt die Prinzipien von AutoML, um den maschinellen Lernvorgang zu vereinfachen und die Effizienz der Entwickler zu verbessern. TransmogrifAI basiert auf vier Grundprinzipien: Modularität, Kompilierungssicherheit, Transparenz und Automatisierung.
Diese vier Prinzipien wurden in ein einfaches Programmiermodell umgesetzt, und Ingenieure müssen nur wenige Codezeilen schreiben, um Aufgaben wie Datenbereinigung, Feature-Engineering und Modellauswahl zu erledigen. GraphPipe GraphPipe kann Machine-Learning-Modelle bereitstellen, die mit gängigen Frameworks wie TensorFlow, MXNet, Caffe 2 und PyTorch in der Cloud erstellt wurden.
Ziel ist es, die Hemmschwelle für die Verwendung von ML-Modellen zu senken, sodass KI-Modelle in mobilen Anwendungen, IoT-Geräten und im Internet verwendet werden können.

Es handelt sich um ein effizientes Netzwerkprotokoll, das die Datenübertragung beim maschinellen Lernen zwischen Remote-Prozessen vereinfacht und standardisiert und es Benutzern ermöglicht, innerhalb des vorhandenen Rahmens flexibel geeignete Modelle für maschinelles Lernen auszuwählen. Dies bedeutet, dass Entwickler weder spezielle APIs für die Verbindung mit KI-Modellen erstellen müssen, noch sich die Mühe machen müssen, zu recherchieren, welches ML-Framework sich besser für die Erstellung von KI-Modellen eignet.
Darüber hinaus hat GraphPipe eine Reihe von Open-Source-Tools für KI-Entwickler für beliebte Frameworks wie TensorFlow herausgebracht.
Derzeit sind TransmogrifAI und GraphPipe kostenlos auf GitHub verfügbar.Super Neuro Enzyklopädie
TransmogrifAI-Architektur:
https://www.colabug.com/4152476.htmlMaschinelles Lernen – Merkmalsverarbeitung:https://blog.csdn.net/kanbuqinghuanyizhang/article/details/78993386
Einführung von GraphPipe:
https://blogs.oracle.com/developers/introducing-graphpipeOracle Open Source Graphpipe:
Salesforce macht TransmogrifAI zu Open Source:
Funktionsbegründung: