Hunyuan3D-2.1: 3D-generatives Modell, Das Physikalische Rendering-Texturen Unterstützt
1. Einführung in das Tutorial

Tencent Hunyuan3D-2.1 ist ein industrietaugliches Open-Source-3D-Generierungsmodell, das vom Tencent Hunyuan-Team am 14. Juni 2025 veröffentlicht wurde. Es handelt sich um ein skalierbares System zur Erstellung von 3D-Assets. Es fördert die Entwicklung modernster 3D-Generierungstechnologie durch zwei Schlüsselinnovationen: ein vollständig Open-Source-Framework und die Textursynthese mit physikbasiertem Rendering (PBR). Das erste Materialgenerierungsmodell, das physikbasiertes Rendering unterstützt, ein vollständiges Materialsystem basierend auf physikalischen Gesetzen wie diffuser Reflexion, Metallhaftigkeit und Normal Maps, ermöglicht Licht- und Schatteninteraktionen auf Filmniveau für Materialien wie Leder und Bronze und erfüllt die Präzisionsanforderungen auf Produktionsebene für Spiele-Assets und Industriedesign. Gleichzeitig sind Datenverarbeitung, Trainings-Inferenzcode, Modellgewichte und Architektur vollständig offen, um Community-Entwickler bei der Feinabstimmung nachgelagerter Aufgaben zu unterstützen, eine reproduzierbare Basis für die akademische Forschung zu schaffen und die Kosten für wiederholte Entwicklung für die industrielle Umsetzung zu senken. Die relevanten Ergebnisse der Studie lauten:Hunyuan3D 2.0: Skalierung von Diffusionsmodellen für die Generierung hochauflösender texturierter 3D-Assets", wurde von CVPR 2025 angenommen.
Die in diesem Tutorial verwendeten Rechenressourcen sind eine einzelne RTX A6000-Karte.
2. Effektanzeige

3. Bedienungsschritte
1. Starten Sie den Container

2. Anwendungsschritte
Wenn „Bad Gateway“ angezeigt wird, bedeutet dies, dass das Modell initialisiert wird. Da das Modell groß ist, warten Sie bitte etwa 3–4 Minuten und aktualisieren Sie die Seite.

Spezifische Parameter:
- Zielflächenanzahl: Gibt die maximale Anzahl von Dreiecksflächen zum Generieren des 3D-Modells an.
- Hintergrund entfernen: Ob der Hintergrund entfernt werden soll, ob der Bildhintergrund (z. B. Volltonfarben, überladene Szenen) automatisch erkannt und gelöscht werden soll und ob nur die Umrisse des Hauptobjekts erhalten bleiben sollen.
- Seed: Steuert die Zufälligkeit des Generierungsprozesses.
- Inferenzschritte: Steuert die Anzahl der Sampling-Iterationen des Diffusionsmodells.
- Octree-Auflösung: Definiert die Rastergenauigkeitsstufe für die 3D-Raumsegmentierung.
- Anleitungsskala: Steuert die Stärke der Einschränkungen, die durch die Textbeschreibung den generierten Ergebnissen auferlegt werden.
- Anzahl der Chunks: Teilen Sie große 3D-Rendering-Aufgaben in Unterchunks auf, die parallel verarbeitet werden, um einen Videospeicherüberlauf (OOM) zu vermeiden.
Ergebnis

4. Diskussion
🖌️ Wenn Sie ein hochwertiges Projekt sehen, hinterlassen Sie bitte im Hintergrund eine Nachricht, um es weiterzuempfehlen! Darüber hinaus haben wir auch eine Tutorien-Austauschgruppe ins Leben gerufen. Willkommen, Freunde, scannen Sie den QR-Code und kommentieren Sie [SD-Tutorial], um der Gruppe beizutreten, verschiedene technische Probleme zu besprechen und Anwendungsergebnisse auszutauschen ↓

Zitationsinformationen
Die Zitationsinformationen für dieses Projekt lauten wie folgt:
@misc{hunyuan3d22025tencent, title={Hunyuan3D 2.0: Scaling Diffusion Models for High Resolution Textured 3D Assets Generation}, author={Tencent Hunyuan3D Team}, year={2025}, eprint={2501.12202}, archivePrefix={arXiv}, primaryClass={cs.CV} }
@misc{yang2024hunyuan3d,
title={Hunyuan3D 1.0: A Unified Framework for Text-to-3D and Image-to-3D Generation},
author={Tencent Hunyuan3D Team},
year={2024},
eprint={2411.02293},
archivePrefix={arXiv},
primaryClass={cs.CV}
}