HyperAIHyperAI

Command Palette

Search for a command to run...

OpenClaw と NVIDIA NemoClaw で構築する、常時動作するローカル AI エージェント

NVIDIA は、ファイルの読み込み、API 呼び出し、多段階ワークフローの実行を可能にする自律型ローカル AI エージェントを構築する手法を公開しました。クラウド依存のリスクを回避し、データプライバシーを確保するため、同社はオープンソースのレファレンススタック「NemoClaw」を開発しました。このスタックは、メッセージプラットフォームを AI コーディングエージェントに接続するセルフホスト型ゲートウェイ「OpenClaw」と、安全性を強化するランタイム「OpenShell」を統合しています。 本チュートリアルでは、NVIDIA DGX Spark 上で NemoClaw をデプロイし、Telegram を介して遠隔からアクセス可能な、常時稼働するエージェントを構築する手順を説明しています。まず、Docker 設定や NVIDIA コントainer ランタイムの登録を行い、GPU 加速環境を整備します。次に、ローカルで Large Language Model(LLM)を実行するための「Ollama」をインストールし、1200 億パラメータを持つ「Nemotron 3 Super 120B」モデルをダウンロードして読み込みます。その後、NemoClaw を実行し、オンボーディングウィザードを通じてサンドボックス名、推論プロバイダー、セキュリティポリシー、そして Telegram 連携の設定を行います。 構築されたエージェントは、OpenShell によってサンドボックス化されるため、許可された API やリソース以外へのアクセスをブロックされます。Web ブラウザによるローカル管理画面に加え、SSH タンネリングを活用すれば、外部端末からも安全に接続可能です。Telegram 統合により、ボット作成後、ペアリングコードの入力を行うだけで、スマートフォンや PC からいつでもエージェントと対話できるようになります。推論はすべてローカルデバイス内で完結するため、外部へのデータ転送は発生せず、Runtime 中は外部サービスへの依存もありません。 管理者は、OpenShell のターミナルインターフェースを通じて、エージェントのネットワークアクセス要求をリアルタイムで監視し、承認または拒否する制御権を持ちます。これにより、複雑なワークフローを実行しながらも、必要な範囲のみでセキュリティを維持することが可能です。NemoClaw は、開発者や企業がオンプレミス環境で安全かつ強力な自律 AI を導入するための包括的な解決策を提供しています。詳細な手順やドキュメントは、NVIDIA の公式プレイブックおよび GitHub で公開されています。

関連リンク