NVIDIA 发布 NemoClaw 与 OpenClaw 打造本地 AI 智能体
NVIDIA 推出开源参考栈 NemoClaw,旨在将人工智能代理从简单的问答系统升级为可长期运行的自主助手。该解决方案通过 NVIDIA OpenShell 安全运行时与 OpenClaw 代理框架的协同,解决了在本地部署代码执行代理时的隐私与控制风险。NemoClaw 提供从模型推理到安全部署的全流程管理,支持文件读取、API 调用及多步工作流,并特别适配 NVIDIA DGX Spark 硬件。 构建该系统的核心在于利用 NVIDIA Nemotron 3 Super 120B 模型作为智能引擎,配合 Ollama 在本地进行推理部署。用户需首先配置 Docker 容器运行时以启用 GPU 加速,并设置 Ollama 监听所有网络接口,随后下载并加载 120B 参数模型。接着,通过 NemoClaw 安装器自动完成沙箱环境的搭建,该沙箱由 OpenShell 隔离,限制了对文件系统和网络的访问权限,确保代理运行在“围墙花园”内,防止数据外泄。 部署完成后,用户可通过 Web 界面本地管理代理,或配置 SSH 隧道实现远程访问。更为重要的是,集成 Telegram 功能后,代理可作为私人助理远程响应指令。首次使用时需通过 BotFather 创建机器人并获取令牌,随后在沙箱内完成配对。测试表明,尽管模型响应需要一定推理时间,但系统能稳定生成符合指令的回答。若代理需访问被限制的特定外部服务,管理员可通过 OpenShell 实时查看并批准请求,无需重启沙箱。这一架构实现了数据完全本地化、无外部依赖的自主 AI 体验,为构建安全、可控的企业级智能助手提供了可靠方案。
