HyperAIHyperAI

Command Palette

Search for a command to run...

Apple präsentiert Manzano: KI-Modell für Bildverstehen und -Erstellung

Apple hat ein neues multimodales KI-Modell namens Manzano vorgestellt, das sowohl Bildverstehen als auch Bildgenerierung in einer einzigen Architektur vereint. Im Gegensatz zu den meisten Open-Source-Modellen, die sich entweder auf Analyse oder Generierung spezialisieren, zielt Manzano darauf ab, beide Aufgaben gleichzeitig mit hoher Qualität zu bewältigen – ein technisches Hindernis, das bisher kommerzielle Systeme wie GPT-4o oder Google’s Nano Banana (Gemini 2.5 Flash Image Generation) vor Open-Source-Alternativen gestellt hat. Obwohl Manzano noch nicht öffentlich verfügbar ist und keine Demo existiert, veröffentlichte Apple eine Forschungsarbeit mit niedrigauflösenden Beispielen für anspruchsvolle Eingaben. Diese wurden mit Ergebnissen von Deepseek Janus Pro, GPT-4o und Nano Banana verglichen – hier zeigte Manzano vergleichbare Leistung, insbesondere bei textreichen Aufgaben wie Diagramm- oder Dokumentenanalyse, wo viele Modelle bisher versagen. Der Kern des Fortschritts liegt in der Hybrid-Tokenizer-Architektur. Manzano (spanisch für „Apfelbaum“) verwendet einen gemeinsamen Bild-Encoder, der zwei Arten von Tokens erzeugt: kontinuierliche Float-Zahlen für das Verständnis von Bildern und diskrete Kategorien für die Generierung. Da beide Streams aus derselben Quelle stammen, werden Konflikte zwischen Analyse- und Generierungsmodus reduziert. Während des Trainings werden kontinuierliche und diskrete Adapter integriert, um den Sprachmodell-Decoder anzupassen. Bei der Inference liefert der Hybrid-Tokenizer beide Token-Streams gleichzeitig. Die Architektur besteht aus dem Hybrid-Tokenizer, einem einheitlichen Sprachmodell und einem separaten Bild-Decoder mit 0,9, 1,75 und 3,52 Milliarden Parametern, der Auflösungen von 256 bis 2048 Pixeln unterstützt. Das Modell wurde in drei Phasen mit insgesamt 1,6 Billionen Tokens trainiert – darunter 2,3 Milliarden Bild-Text-Paare aus öffentlichen und internen Quellen sowie eine Milliarde Text-zu-Bild-Daten, teilweise synthetisch generiert (z. B. mit DALL-E 3 oder ShareGPT-4o). Auf Benchmark-Tests wie ScienceQA, MMMU und MathVista erzielte die 30-Milliarden-Parameter-Version herausragende Ergebnisse, besonders bei textintensiven Aufgaben. Skalierungstests zeigten, dass die Leistung mit wachsender Modellgröße weiter steigt – die 3-Milliarden-Version lag beispielsweise über 10 Punkten vor der kleinsten Variante. In neun multimodalen Benchmarks erreichten Manzano 3B und 30B Spitzenpositionen und konkurrierten mit führenden Systemen. Auch bei spezialisierten Ansätzen zeigte sich nur ein minimaler Leistungsnachteil – unter einem Punkt bei der 3-Billionen-Version. Bei der Bildgenerierung übertraf Manzano viele Konkurrenten: Es versteht komplexe Anweisungen, überträgt Stile, fügt Bilder hinzu und schätzt Tiefenwerte. Apple sieht Manzano als vielversprechende Alternative und betont die Modularität der Architektur, die unabhängige Aktualisierungen einzelner Komponenten ermöglicht und verschiedene KI-Forschungsmethoden integrieren kann. Trotz dieser technischen Fortschritte bleibt Apple in seiner Foundation-Modell-Entwicklung hinter den Marktführern zurück. Um die Lücke zu schließen, plant das Unternehmen, ab iOS 26 OpenAI’s GPT-5 in Apple Intelligence zu integrieren. Manzano zeigt klare Fortschritte, aber entscheidend wird sein, ob die Architektur langfristig die Abhängigkeit von externen Modellen verringern kann – eine Frage, die nur zukünftige Updates beantworten werden. Industrieexperten sehen in Manzano eine signifikante Innovation im Bereich multimodaler KI, insbesondere wegen des Hybrid-Approaches, das die Trennung zwischen Verstehen und Generieren aufhebt. Experten von AI-Research-Gruppen betonen, dass die Modularität und Skalierbarkeit das Modell für zukünftige Integrationen besonders attraktiv machen. Apple, das mit seinen eigenen KI-Systemen wie „Apple Intelligence“ auf eine stärkere On-Device-Intelligenz setzt, könnte durch Manzano einen Schritt hin zu mehr Eigenständigkeit in der KI-Entwicklung machen – vorausgesetzt, die Leistung im realen Einsatz hält, was bisher nur anhand von Prototypen und Benchmarks abzuschätzen ist.

Verwandte Links