로컬에서 완전히 안전한 코드 실행을 구현한 InstaVM: 클라우드 없이도 AI 작업을 독립적으로 수행하는 새로운 패러다임
InstaVM은 완전히 로컬에서 작동하는 코드 실행 플랫폼으로, 클라우드나 원격 실행 없이도 프라이버시를 보장하는 AI 작업 환경을 제공한다. 사용자는 LLM을 통해 작업을 계획하고, 컨테이너 기반의 격리된 환경에서 코드를 실행하며, 브라우저를 통해 결과를 확인할 수 있다. 주요 기술 스택은 Apple Silicon 기반의 Apple Container, Ollama를 통한 로컬 LLM, Next.js 기반의 UI, MCP(모델 컨텍스트 프로토콜)를 활용한 코드 실행 서버, 그리고 Playwright 기반의 헤드리스 브라우저로 구성된다. 특히, Apple Container은 각 컨테이너가 독립된 VM으로 작동해 코드 실행 시 완전한 격리가 가능하다. Jupyter 서버와 Playwright를 컨테이너 내에 배포해 영상 편집(ffmpeg), 이미지 처리, GitHub에서 도구 설치, 웹 페이지 탐색 및 요약 등 다양한 작업을 수행할 수 있다. 파일은 ~/.coderunner/assets에서 컨테이너의 /app/uploads로 마운트되어 안전하게 공유되며, 호스트 시스템에는 직접 접근하지 않는다. LLM은 모델 선택 기능을 지원하며, 도구 호출 기능이 필요한 경우 Ollama의 제한을 고려해 외부 도구와의 연동을 유연하게 설계했다. MCP를 통해 Claude Desktop, Gemini CLI 등 다양한 도구와 호환 가능하다. 현재까지의 기능은 연구, 데이터 분석, 자동화 작업 등에 적합하며, 향후 더 강력한 로컬 모델 통합과 사용자 경험 개선을 계획 중이다. 이 프로젝트는 단순한 기술 실험을 넘어, 개인의 데이터와 계산 권한을 되찾는 철학적 전환을 의미한다. 코드는 GitHub에서 공개되어 누구나 사용하고 기여할 수 있다.