HyperAIHyperAI
Back to Headlines

InstaVM : Un écosystème local pour exécuter du code en toute sécurité, sans cloud, sans compromis

il y a 9 jours

InstaVM est une plateforme d’exécution de code sécurisée conçue pour fonctionner entièrement localement, sans recours au cloud ni à l’exécution de code à distance. Cette vision, exprimée par un ami souhaitant une autonomie totale sur ses données, a conduit à la création d’un système intégré où l’intelligence artificielle, l’exécution de code et l’interaction utilisateur sont isolés sur l’appareil personnel — ici, un Mac à puce Apple Silicon. À l’origine, les applications LLM mainstream comme ChatGPT ou Claude reposent sur des modèles hébergés dans le cloud, ce qui soulève des préoccupations de confidentialité. Même si ces entreprises prennent la sécurité au sérieux, des failles passées — comme l’accès non autorisé aux conversations utilisateur dans les premiers jours de ChatGPT — montrent qu’un risque existe. Avec l’essor des modèles open source (comme Llama, Mistral, DeepSeek), il devient techniquement possible d’opérer localement. Mais cela ne suffit pas : il faut aussi un environnement strictement isolé pour exécuter le code généré par l’IA. Le système repose sur trois piliers : un LLM local pour la prise de décision et la génération de contenu, une couche d’isolation via des conteneurs (ici, Apple Container, une solution récente et prometteuse), et une interface web accessible localement. L’objectif est de permettre des tâches privées — comme éditer des vidéos ou des images — sans jamais exposer les fichiers à des serveurs externes. Le développement a commencé par une tentative de création d’une application native macOS à l’aide d’outils comme a0.dev, mais les limitations de ces outils pour le développement sur Mac ont rapidement été évidentes. Les suggestions d’IA étaient souvent erronées ou inadaptées aux spécificités de l’écosystème macOS. Une alternative a été trouvée avec Electron, en encapsulant une application Next.js, mais le processus s’est révélé long et complexe. Finalement, une version web locale, basée sur Assistant-UI, a été adoptée pour sa simplicité, sa configurabilité et sa stabilité. Pour la gestion des modèles, l’outil ai-sdk a été choisi pour permettre la sélection dynamique de modèles, y compris des versions cloud pour les tâches nécessitant une puissance de traitement supérieure, tout en maintenant la possibilité de basculer vers des modèles locaux à mesure qu’ils s’améliorent. Un défi majeur est la prise en charge des tool-calling : bien que certains modèles soient capables de cette fonctionnalité, Ollama ne l’a pas encore implémentée pour tous, ce qui crée une incohérence entre les annonces publiées et la réalité technique. L’isolation du code est assurée par Apple Container, qui permet de créer des machines virtuelles autonomes par conteneur. Un serveur Jupyter a été déployé dans l’un de ces conteneurs, exposé via le protocole MCP (Model Context Protocol), permettant à des outils comme Claude Desktop ou Gemini CLI de l’utiliser directement. Cette architecture permet une exécution sécurisée du code généré par l’IA, sans accès au système hôte. Un autre outil a été ajouté : un navigateur tête-bêche (Playwright), également exécuté dans le conteneur, pour permettre à l’IA de rechercher de l’information en ligne — par exemple, pour trouver des instructions d’installation sur GitHub — tout en maintenant l’isolement. Les fichiers sont partagés via un volume monté entre le système hôte (~/.coderunner/assets) et le conteneur (/app/uploads), garantissant que les données restent sécurisées et accessibles uniquement à l’utilisateur. Les fonctionnalités du système incluent : la recherche d’information, la génération de graphiques à partir de données brutes, l’édition vidéo (via ffmpeg), la modification d’images, l’installation d’outils depuis GitHub, et la lecture et synthèse de contenus web. Malgré des difficultés techniques — notamment des erreurs de build récurrentes avec Apple Container, nécessitant des redémarrages manuels — le projet a atteint un état fonctionnel. Il incarne une vision plus large : redonner à l’utilisateur le contrôle total sur son environnement informatique, sans compromis sur la vie privée. InstaVM n’est pas seulement une expérimentation, mais une réponse concrète à une demande croissante de souveraineté numérique. Le code est disponible sur GitHub, et l’équipe encourage les retours, les rapports de bugs et les contributions. En résumé, InstaVM montre qu’il est possible de créer un assistant IA entièrement local, sécurisé et fonctionnel, en combinant modèles ouverts, isolation par conteneur, et outils d’interaction moderne. C’est un pas vers un avenir où l’intelligence artificielle sert l’utilisateur, sans qu’il doive sacrifier sa confidentialité.

Related Links

InstaVM : Un écosystème local pour exécuter du code en toute sécurité, sans cloud, sans compromis | Gros titres | HyperAI