HyperAIHyperAI

Command Palette

Search for a command to run...

Flux 2: KI-Bildgenerierung in reiner C-Sprache ohne Python

Salvatore, der Entwickler hinter dem Projekt „flux2.c“, hat in einer Woche ein reines C-Implementierung des FLUX.2-klein-4B-Modells für die Text-zu-Bild-Generierung erstellt – ohne selbst eine einzige Zeile Code geschrieben zu haben. Das Projekt nutzt ausschließlich die C-Standardbibliothek, benötigt keine Python-Runtime, PyTorch oder CUDA-Tools und läuft direkt mit Safetensors-Modelldateien in Float32-Format. Die Implementierung wurde mit Hilfe von Claude Code (Claude Max, ~80 Euro/Monat) generiert, wobei der Entwickler entscheidend bei der Steuerung des Designs, der Architektur und der Korrektheit mitwirkte. Ziel war es, die Zugänglichkeit von KI-Modellen zu erhöhen, indem man die Abhängigkeit von Python und komplexen Umgebungen reduziert. Der Ansatz zeigt, dass moderne KI-Codegeneratoren bereits für anspruchsvolle, selbstständige Softwareprojekte taugen. Das Modell basiert auf einer rektifizierten Flussarchitektur (Rectified Flow Transformer) mit 5 Doppelblöcken und 20 Einzelblöcken, 3072 versteckten Dimensionen und 24 Aufmerksamkeitsköpfen. Es nutzt einen Qwen3-4B-Textencoder und einen AutoencoderKL (VAE) mit 8-facher räumlicher Kompression. Die Inferenz erfolgt mit nur vier Sampling-Schritten, was die Geschwindigkeit erheblich steigert. Die maximale Auflösung liegt bei 1024×1024 Pixeln, Mindestauflösung 64×64, wobei Abmessungen Vielfache von 16 sein müssen. Die Speicherauslastung erreicht Spitzenwerte von bis zu 16 GB, wobei der Textencoder nach der Kodierung automatisch freigegeben wird, um den Speicherverbrauch zu senken. Die Anwendung erfolgt über die Kommandozeile: ./flux -d flux-klein-model -p "Prompt" -W 250 -H 250 -o output.png für Text-zu-Bild, oder mit -i für Bild-zu-Bild-Transformation. Die Stärke der Änderung wird durch den -t-Parameter gesteuert. Auch mehrfache Generierungen mit gleichem Prompt sind möglich, ohne den Textencoder neu zu laden. Ein C-API ermöglicht die Integration in eigene Projekte über libflux.a und flux.h. Fehler werden über flux_get_error() ausgegeben, und alle Funktionen geben NULL bei Fehlern zurück. Die Projektstruktur ist minimalistisch, die Abhängigkeiten auf das Minimum reduziert – lediglich OpenBLAS für BLAS-Beschleunigung (empfohlen) oder MPS (Apple Silicon) sind optional. Die Modellgewichte werden direkt von Hugging Face heruntergeladen (ca. 16 GB). Die Reproduzierbarkeit wird durch die Ausgabe des Seeds an stderr gewährleistet. In der Branche wird das Projekt als wegweisend für die Zukunft der KI-Software angesehen. Experten loben den Ansatz, die Abhängigkeit von Python zu reduzieren, was die Portabilität, Sicherheit und Effizienz von KI-Infrastrukturen verbessert. Insbesondere für Edge-Geräte oder eingebettete Systeme könnte ein rein C-basiertes Inferenzsystem eine Schlüsselrolle spielen. Der Erfolg von flux2.c zeigt, dass KI-generierte Software, wenn sorgfältig gesteuert, bereits heute für komplexe Anwendungen tauglich ist. Salvatore, ein erfahrener Softwareentwickler und Open-Source-Aktivist, hat mit diesem Projekt eine neue Ära der KI-Entwicklung eingeläutet – in der Menschen und KI gemeinsam, aber mit klarer menschlicher Leitung, Software schreiben.

Verwandte Links

Flux 2: KI-Bildgenerierung in reiner C-Sprache ohne Python | Aktuelle Beiträge | HyperAI