Lokale KI-Plattform mit isolierter Code-Ausführung und Privatsphäre
InstaVM ist eine lokal laufende Plattform für sichere Code-Ausführung, die darauf abzielt, den gesamten Workflow von KI-gesteuerter Planung bis hin zur isolierten Code-Execution vollständig auf dem eigenen Gerät zu ermöglichen – ohne Cloud-Abhängigkeiten oder Remote-Code-Execution. Der Ansatz entstand aus dem Wunsch, sensible Aufgaben wie Bild- und Videobearbeitung, Forschung oder Tool-Installation ohne Datenübertragung an Dritte durchzuführen. Obwohl Open-Source-LLMs wie DeepSeek oder Llama verfügbar sind, reicht ein lokaler LLM allein nicht aus: Es braucht eine echte Isolation, um AI-generierten Code sicher auszuführen. Die Architektur basiert auf drei Kernkomponenten: einem lokalen LLM-Interface (über ai-sdk), einem containerisierten Ausführungsraum mittels Apples neuem container-Tool (eine VM-ähnliche Isolation pro Container) und einer webbasierten Oberfläche mit Unterstützung für MCP (Model Context Protocol). Die Entwicklung fand auf Apple Silicon statt, was die Performance und Kompatibilität verbesserte. Obwohl ursprünglich ein natives Mac-App-Prototyp mit a0.dev oder Electron geplant war, stießen die Entwickler auf erhebliche Hürden – insbesondere wegen Plattform-spezifischer Quirks und fehlender Dokumentation. Letztlich wurde auf eine einfache, konfigurierbare Web-Oberfläche (assistant-ui) zurückgegriffen, die sich als robust und benutzerfreundlich erwies. Ein zentraler Meilenstein war die Integration von MCP, um die Code-Execution über einen standardisierten Kanal zu ermöglichen. Mit einem Jupyter-Server im isolierten Container und der Exposition als MCP-Tool (unter http://coderunner.local:8222/mcp) können bereits bestehende Tools wie Claude Desktop oder Gemini CLI direkt AI-generierten Code ausführen – ohne zusätzliche API-Integration. Auch die Erweiterung um einen headless Browser mittels Playwright eröffnet neue Möglichkeiten: Die Plattform kann nun Online-Recherche betreiben (z. B. GitHub-Code suchen), Informationen abrufen und summarisieren, was die Autonomie und Aktualität des Systems erhöht. Daten werden über ein Volume-Mapping zwischen ~/.coderunner/assets (Host) und /app/uploads (Container) geteilt – sicher, aber ohne direkten Zugriff des Codes auf das Host-System. Dies gewährleistet Datenschutz und Isolation, während Nutzerdateien erhalten bleiben. Die Plattform unterstützt bereits praktische Anwendungsfälle wie Video-Cutting (via ffmpeg), Bildbearbeitung, Chart-Generierung aus CSV-Daten, Installation von Tools aus GitHub und automatisierte Recherche. Trotz Fortschritten gibt es Herausforderungen: Apple’s container-Tool ist noch in der frühen Entwicklung und neigt zu unerwarteten Fehlern (z. B. „Trap“-Fehler), die durch Prozesskill und Image-Neu-Download behoben werden müssen – oft nach mehreren Versuchen. Auch die Tool-Call-Unterstützung in Ollama ist unzuverlässig, obwohl Modelle wie DeepSeek-R1 in der Dokumentation als solche ausgewiesen sind. Dies verdeutlicht die Fragmentierung im Open-Source-Ökosystem, wo Dokumentation, Implementierung und Support oft nicht synchron laufen. Dennoch ist InstaVM mehr als ein Proof-of-Concept – es verkörpert eine Bewegung hin zu lokaler Kontrolle, Privatsphäre und agiler, selbstbestimmter Arbeit. Während die größten LLMs weiterhin in der Cloud verbleiben, zeigt InstaVM, dass lokal laufende, isolierte Werkzeuge bereits heute produktiv eingesetzt werden können. Die Open-Source-Plattform ist auf GitHub verfügbar, und die Entwickler laden zur Mitwirkung ein – für Feedback, Fehlerberichte und Verbesserungen. Bewertung & Kontext: Industrieexperten sehen in InstaVM ein wichtiges Signal für die Zukunft der KI-Tooling: Die Nachfrage nach Datenschutz und Autonomie wächst, besonders in sensiblen Bereichen wie Medizin, Recht oder Journalismus. Obwohl die Performance lokaler Modelle noch hinter den Cloud-Modellen zurückbleibt, zeigt InstaVM, dass mit cleverer Architektur und Isolation praktikable, sichere Alternativen möglich sind. Das Projekt ist ein Paradebeispiel für „AI at the Edge“ – mit Fokus auf Sicherheit, Transparenz und Nutzerkontrolle. Für Entwickler und Privatanwender, die Wert auf Datenhoheit legen, ist es eine lohnenswerte Alternative zu Cloud-basierten KI-Plattformen.