オンライン チュートリアル | Llama 3 をしきい値なしで導入する 70B バージョンは 1.07G のストレージ容量のみを占有します。新規ユーザーは 8B バージョンを無料で体験できます。

特色图像

4 月 18 日、Meta はオープンソース Llama 3 を発表しました。このいわゆる「これまでで最高のオープンソース大規模モデル」は、リリースされるとすぐにテクノロジー界に爆発をもたらしました。

リリースの日は、スタンフォード大学教授で AI オープンソースの第一人者である Andrew Ng の誕生日と一致し、彼は興奮気味に次のように投稿しました。これは私が今までにもらった中で最高の誕生日プレゼントです、ありがとうメタ。

Meta の主任科学者でチューリング賞受賞者の Yann LeCun も、彼のアカウントで最新のオープンソース モデルを推奨しました—8k の長いテキストをサポートし、24k GPU クラスターでのトレーニングに 15T を超えるトークンを使用し、複数の評価ベンチマークで良好なパフォーマンスを示します。一部のタスクでは、Llama 3-8B の方が Llama 2-70B よりも優れたパフォーマンスを発揮します。今後数か月以内にさらに多くのバージョンがリリースされる予定です。
公式ウェブサイトによると、Llama 3 は教師あり微調整 (SFT)、近接ポリシー最適化 (PPO)、直接ポリシー最適化 (DPO) などの高度な命令チューニング テクノロジを使用しており、これは Llama 2 と比較して質的進歩です。セキュリティの面では、Llama Guard 2、Code Shield、CyberSec Eval 2 を使用した新しい信頼およびセキュリティ ツールは、Llama 2 よりも優れた「エラー拒否パフォーマンス」を備えています。
Llama 3 がリリースされたとき、Meta は公式ブログで、400B を超えるパラメータでモデルの新しいバージョンをトレーニングしていると述べたことも言及する価値があります。 NVIDIA の上級科学者である Jim Fan 氏は次のように考えています。将来的に Llama 3-400B が発売される可能性があるということは、オープンソース コミュニティが GPT-4 レベルのモデルを使用できる可能性があることを示しており、これにより多くの研究活動や草の根スタートアップのコンピューティング手法が変わることになります。


現実世界のシナリオで Llama 3 のパフォーマンスを評価するには、
Meta は、新しい高品質の人的評価データ セットを特別に開発しました。これには、提案の募集、ブレーンストーミング、分類、クローズド Q&A、プログラミング、クリエイティブ ライティング、情報抽出、ロール プレイング、オープン Q&A、論理的推論などの実用的な使用例が含まれますが、これらに限定されません。 、テキストのリライトや要約など。
結果は、Meta Llama 70B が Claude Sonnet、Mistral Medium、GPT-3.5 と比較して有利な位置を占めていることを示しています。

パフォーマンスは GPT-3.5 を超え、GPT-4 に近づいています。誰もが今すぐ Llama 3 を始めて体験するのが待ちきれないと思います。長いダウンロード待ち時間を短縮し、コンピューティング リソースを節約し、モデルのデプロイメントの難しさを軽減するために、HyperAI は、チュートリアル ページで「Ollama と Open WebUI を使用して Llama3-8B-Instruct をデプロイする」および「Ollama と Open WebUI を使用して Llama3-70B をデプロイする」チュートリアルを開始しました。* Ollama と Open WebUI は、それぞれ強力なバックエンド モデル管理とフロントエンド インターフェイスの対話機能を提供します。これら 2 つのツールを一緒に使用すると、大規模なモデルの展開と管理を簡単に完了できます。
Llama3-70B が必要とするストレージ容量はわずか 1.07GB です。ワンクリックでクローン作成を開始できます。
HyperAI スーパー ニューラル チュートリアルのアドレス: ※8B:https://hyper.ai/tutorials/31129*70B: https://hyper.ai/tutorials/31155
エディターはチュートリアルに従って Llama 3 モデルをデプロイし、全員が実際の効果を試すのを手助けしました。
※編集者は意図的にラマ3を誘導しましたが、騙されませんでした。しかし、GPT-3.5 でも同じ問題が発生しました。質問に真剣に答える姿を見て、編集者も思わず信じそうになった。

* もうすぐメーデーですが、たくさんの場所の中からどこに行けばいいでしょうか?

* 算数の問題も解決できるので、家でのお子様の指導にもう心配する必要はありません。

※翻訳もできるので大きな悩みが解決しました!

※就寝時の話、また一つスキルを取得しました。

デモの実行
1. hyper.ai にログインし、「チュートリアル」ページで「Ollama と Open WebUI を使用して Llama3-8B-Instruct をデプロイする」または「Ollama と Open WebUI を使用して Llama3 70B をデプロイする」を選択します。
次に、エディターはチュートリアル「Ollama と Open WebUI を使用した Llama3-70B のデプロイ」を例として取り上げます。

2. [このチュートリアルをオンラインで実行する] をクリックします。ページが移動したら、右上隅の [クローン] をクリックして、チュートリアルを独自のコンテナーにクローンします。

3. 右下隅の「次へ: コンピューティング能力の選択」をクリックします。

4. ジャンプ後、「NVIDIA RTX A6000 48GB」を選択し、イメージ「PyTorch」を選択して、「次へ: レビュー」をクリックします。以下の招待リンクを使用して登録した新規ユーザーは、RTX 4090 を 4 時間 + 5 時間も利用できます。 CPU  無料のコンピューティング能力間隔!
HyperAI ハイパーニューラルの専用招待リンク (ブラウザに直接コピーし、開いて登録します):https://openbayes.com/console/signup?r=6bJ0ljLFsFh_Vvej
注: 「Ollama と Open WebUI を使用した Llama3-8B-Instruct のデプロイ」チュートリアルを実行している場合は、「NVIDIA GeForce RTX 4090」を選択して実行します。

5. [続行] をクリックし、リソースが割り当てられるまで待ちます。ステータスが [実行中] に変わったら、[ワークスペースを開く] をクリックします。

5. [続行] をクリックし、リソースが割り当てられるまで待ちます。ステータスが [実行中] に変わったら、[ワークスペースを開く] をクリックします。


OLLAMA_MODELS=/openbayes/home/ollama-models ./ollamaserve

7. 新しいターミナル ページを作成し、コマンド ラインに次の内容を入力して Open WebUI を起動します。

bash /openbayes/input/input1/open-webui/backend/start.sh

8. コマンド ラインに「INFO: Uvicorn running on http://0.0.0.0:8080」が表示されたら、右側の API アドレスをブラウザのアドレス バーにコピーして、「WebUI を開く」ページを開きます。APIアドレスアクセス機能を利用するには実名認証が必要となりますのでご注意ください。

エフェクト表示
1. Open WebUI インターフェイスを開いた後、アカウントにログインします。

アカウント: admin@example.com

パスワード:adminadmin

2. Llama 3-70B モデルを選択します。

3. 質問を入力すると使用できるようになります。

現在、HyperAI 公式 Web サイトでは、Jupyter Notebook にまとめられた数百の厳選された機械学習関連のチュートリアルを公開しています。
リンクをクリックして、関連するチュートリアルとデータ セットを検索します。https://hyper.ai/tutorials
以上が今回編集者が共有した内容ですので、ご参考になれば幸いです。他の楽しいチュートリアルを学びたい場合は、メッセージまたはプライベート メッセージを残してプロジェクトのアドレスをお知らせください。編集者が AI の遊び方を教えるコースをカスタマイズします。
参考文献:

1.https://mp.weixin.qq.com/s/bw1-e9Nou7CeR-9iaGNLNA

2.https://mp.weixin.qq.com/s/GoxWufZhemddpvCkOwYAKg

3.https://mp.weixin.qq.com/s/tkMb2RRblCvOpxP7yBTl-w