ローカルで完全プライベートなAI開発環境「InstaVM」登場 — Apple Silicon上で実行される容器化コード実行プラットフォーム
「すべてをローカルで完結したい。クラウドもリモート実行も使いたくない」というシンプルな要望から生まれたのが、InstaVMというセキュアなコード実行プラットフォームだ。このシステムは、プライバシーを重視するユーザーがAIを活用しながらも、データを外部に漏らさずに作業を完遂できるように設計されている。たとえば、写真や動画の編集をAIに任せたい場合、ChatGPTやClaudeのような主流のLLMアプリでは、入力データがクラウドに送信されるリスクがある。実際、ChatGPTの初期段階ではユーザーのチャットが他のアカウントから閲覧可能になるという重大なセキュリティ問題も発生しており、こうしたリスクを回避するためには完全なローカル処理が不可欠である。 開発チームは、ローカルでLLMによる会話処理、コンテナによるコード実行、そしてWebブラウザによるアクセスを統合する仕組みを構築した。Apple Siliconマシン上で動作させ、Dockerに代わるAppleの「Container」ツールを活用し、各コンテナが独立した仮想マシンとして動作する特性を活かして、コード実行環境を完全に隔離した。Jupyterサーバーをコンテナ内にデプロイし、MCP(Model Context Protocol)経由で外部ツールからアクセス可能にしたことで、Claude DesktopやGemini CLIなど既存のAIツールと連携できる仕組みを実現。AIが生成したPythonコードを安全に実行できるようになり、動画の一部切り出しや画像のリサイズ、フォーマット変換といったタスクが可能になった。 さらに、最新の情報を取得するためにヘッドレスブラウザとしてPlaywrightを導入。GitHubからライブラリのインストール手順を検索したり、Webページを取得して要約するといったリサーチ機能も実装。ファイルの共有は、ホストの~/.coderunner/assetsとコンテナ内の/app/uploadsをマウントすることで実現。コードはホストシステムに直接触れず、安全な領域で処理される。 ただし、現状ではOllamaが一部のモデルにツールコール機能を実装していない点や、Apple Containerのビルドが頻繁に失敗するといった課題もある。また、小さなローカルモデルの性能はまだ不十分で、完全なローカル化には限界がある。それでも、ユーザーはモデル選択の自由度を保ちつつ、徐々にローカルモデルに移行できる設計になっている。 このプラットフォームは、AIの力をローカルで活かすという哲学の実践である。クラウド依存から解放され、プライバシーを損なわず、日々の作業を自分のマシンで完結できる未来を目指している。開発チームは、コードをGitHubに公開し、誰もが自由に利用・改善できるようにしている。これは単なる実験ではなく、個人のデバイスに計算力と自律性を戻す、新しい働き方の可能性を示している。