情報
Sparanoid
超神経質で
Google 検索に戻る前に、Google Cloud が中国に参入するというニュースを受け取りました。
もしかしてAutoMLって本当に便利に使えるのでしょうか?Googleクラウドが来るのか?
今日の午後、Capital Onlineの公式WeChatパブリックアカウントがリリースされました 「Google CloudはCapital Onlineを通じて中国に参入する」ニュース。
数カ月前、グーグル幹部らが頻繁に中国を訪問し、人工知能アカデミーを設立し、中国市場などのシグナルを決して諦めないと述べて以来、多くの人々がグーグル関連製品の復活を待ち望んでいた。
キャピタル・オンラインは記事が公開された直後にすぐに削除したが、非公開でこう述べた。 「Capital Onlineは海外でのみ代理店契約を結んでいて、記事にあるように中国にはありません。」
しかし、この記事の論調は確かであり、その文言は明確である。記事の削除と否定に関しては、その理由は依然として検討に値する。
Google Cloud が中国にうまく参入できるかどうかは定かではありませんし、AutoML が使いやすくなるまでには時間がかかるかもしれませんが、同様のサービスは他にもたくさんあります。AutoML を超えて? AI モデルの構築コストを削減するために直接使用できる既製の機械学習モデル フレームワークが多数あり、多くの企業が独自の ML ツールをオープンソース化しています。
ただし、これらのフレームワークはまだ「同じトラック上の自動車、同じテキスト上の書籍」という目標を達成できていません。フレームワーク間の相互運用が困難であり、ML フレームワークを相互運用できるようにする効果的なソリューションは現時点ではありません。あらゆるアプリケーションに接続できます。企業が使用中に複数の ML モデル フレームワークを同時に使用する必要がある場合、多くのエンジニアリング作業を自社で完了する必要があります。
この問題を解決するために、Salesforce と Oracle は両方とも、これらのオープンソース ML モデル フレームワークをさまざまなアプリケーションに接続できるツールを開発しました。
以前は、Python-JSON API などの相互接続 API を確立するなど、上記の問題に対する解決策が市場にありましたが、これらの解決策ではドッキングを実現しながら ML モデル フレームワークのパフォーマンスが失われます。
ML モデルが API を通じてドッキングの問題を一時的に解決したとしても、企業がそれを商用化したい場合は、依然として専用のモデルサーバーを構築する必要があり、コストがかかるだけでなく、非常に複雑です。たとえば、TensorFlow サービスの GPU バージョンの構築には数日かかる場合があります。
したがって、ML モデル フレームワークの普及を現在悩ませている主な問題の 1 つは、標準化されたアプリケーション インターフェイスの欠如であり、もう 1 つはモデル サーバーを構築するための敷居が高すぎることです。
その結果、これらの ML モデルをさまざまなアプリケーションで接続できるフレームワークが登場しました。 TransmogrifAI: クラウド用の ML フレームワーク TransmogrifAI は、Apache Spark エンジンに基づく ML フレームワークで、特徴エンジニアリング、特徴選択、モデル トレーニングを実行できます。また、既存の ML モデルを合成して、あらゆるアプリケーションに最もコスト効率の高い ML モデルを適合させることができ、企業が個別のモデル サーバーを作成する必要はありません。
このフレームワークは Salesforce によって開発されました。この老舗のエンタープライズ サービス会社は現状に満足せず、AI のトレンドに追いつくことを急いでいます。
最近、彼らは TransmogrifAI をオープンソース化しました。
同社が構築した AI プラットフォーム Einstein は現在、業界最大の機械学習プロジェクトの 1 つであり、高度な機械学習アルゴリズム、自然言語処理、インテリジェントなデータ マイニング機能を備えています。このプラットフォームは、市場のほとんどの ML モデルに接続できるようになり、これらのモデルを簡素化できます。
Einstein がこれらすべてを実行できるようにしているのは、TransmogrifAI です。
TransmogrifAI は AutoML の原則を活用して、機械学習の操作プロセスを簡素化し、開発者の作業効率を向上させます。 TransmogrifAI には、モジュール性、コンパイルの安全性、透明性、自動化という 4 つの基本原則があります。
これら 4 つの原則は、エンジニアがわずか数行のコードを記述するだけで、データ ラングリング、特徴量エンジニアリング、モデル選択などのタスクを完了できるシンプルなプログラミング モデルに変換されています。 グラフパイプ GraphPipe は、TensorFlow、MXNet、Caffe 2、PyTorch などの一般的なフレームワークで作成された機械学習モデルをクラウドで提供できます。
目的は、ML モデルの使用の敷居を下げ、AI モデルをモバイル アプリケーション、IoT デバイス、Web で使用できるようにすることです。
これは、リモート/プロセス間の機械学習データの送信を簡素化および標準化できる効率的なネットワーク プロトコルであり、ユーザーが既存のフレームワーク内で適切な機械学習モデルを柔軟に選択できるようにします。これは、開発者が AI モデルを接続するための API を特別に構築する必要がなく、AI モデルの作成にどの ML フレームワークが適しているかをわざわざ調査する必要もないことを意味します。
さらに、GraphPipe は、TensorFlow などの人気フレームワーク用の AI 開発者向けの一連のオープンソース ツールも立ち上げています。
現在、TransmogrifAI と GraphPipe は GitHub で無料で入手できます。スーパーニューラル事典
TransmogrifAI アーキテクチャ:
https://www.colabug.com/4152476.html機械学習 - 特徴処理:https://blog.csdn.net/kanbuqinghuanyizhang/article/details/78993386
グラフパイプの紹介:
https://blogs.oracle.com/developers/introducing-graphpipeOracle オープンソース グラフパイプ:
Salesforce オープンソース TransmogrifAI:
機能の推論: