Im Juli hat NVIDIA gemeinsam mit Black Forest Labs das neue Bildbearbeitungsmodell FLUX.1 Kontext [dev] für RTX-AI-PCs optimiert. Ab heute ist FLUX.1 Kontext als NVIDIA NIM-Microservice verfügbar, mit dem Entwickler und Kreative es nach einem einzigen Download lokal ausführen können.
Der NIM ist mit TensorRT-Optimierungen und fortschrittlicher Quantisierung vorinstalliert, wodurch der VRAM-Bedarf von 24 GB auf nur 7 GB (FP4) oder 12 GB (FP8) reduziert und die Leistung im Vergleich zum Originalmodell mehr als verdoppelt wird. Wo solche Geschwindigkeitssteigerungen früher fortgeschrittene Kenntnisse im Bereich der AI-Infrastruktur erforderten, kann nun jeder das Modell in Tools wie ComfyUI einsetzen und sofort mit der Arbeit beginnen.
Mit FLUX.1 Kontext [dev] können Entwickler Charakterdetails über Szenen hinweg konsistent halten, einzelne Elemente bearbeiten, ohne das gesamte Bild zu verändern, Stile aus Referenzfotos übernehmen und in Echtzeit arbeiten.
Diese Woche beleuchtet der RTX AI Garage-Blog, was das für Entwickler und Kreative bedeutet:
- Einfache Einrichtung: Von der Entwickler-Installation bis zum Download mit einem Klick.
- Echtzeitbearbeitung: Interaktive Bildgenerierung mit geringer Latenz.
- Kreativer Fokus: Mehr Zeit für die Arbeit, weniger Zeit für die Einrichtung.
- Zugang für mehr Menschen: Fortschrittliche generative AI ohne Hardware- oder Know-how-Barrieren.
FLUX.1 Kontext [dev] ist auf Hugging Face mit TensorRT-Optimierungen und ComfyUI verfügbar. Nutzungsanweisungen gibt es auf ComfyUI’s NIM nodes GitHub:
- NVIDIA AI Workbench installieren.
- ComfyUI herunterladen.
- NIM Nodes über den ComfyUI Manager in der App installieren.
- Die Modell-Lizenzen auf Black Forest Labs’ FLUX.1 Kontext [Dev] Hugging Face akzeptieren.
- Die Node bereitet den gewünschten Workflow vor und hilft nach einem Klick auf „Run” beim Download aller notwendigen Modelle.
*Auszug Pressemitteilung










