ComfyUI Bild zu Bild: Denoise-Einstellungen & h盲ufige Fehler
img2img in ComfyUI meistern 鈥?Denoise-Werte verstehen, den Workflow korrekt aufbauen und h盲ufige Probleme wie den Verlust von Referenzdetails beheben.
Was ist Bild zu Bild?
Bild zu Bild (img2img) nimmt ein vorhandenes Bild als Eingabe und generiert daraus ein neues Bild. Anstatt wie bei Text-zu-Bild mit reinem Rauschen zu starten, beginnt das Modell mit einer verrauschten Version deines Referenzbildes 鈥?wobei die Struktur erhalten bleibt, w盲hrend neue Stile oder Details angewendet werden.
H盲ufige Anwendungsf盲lle:
- Stiltransfer 鈥?ein Foto in Anime, 脰lgem盲lde oder Skizze umwandeln
- Fotorestaurierung 鈥?alte oder besch盲digte Bilder aufbereiten
- Kolorierung 鈥?Schwarz-Wei脽-Fotos einf盲rben
- Konzeptiteration 鈥?eine grobe Skizze zu einem ausgefeilten Bild verfeinern
Unterschiede zu Text zu Bild
Der Workflow ist nahezu identisch mit Text-zu-Bild, mit zwei wesentlichen 脛nderungen:
- Eingabebild ersetzt leeres Latent 鈥?Anstelle eines Empty Latent Image-Knotens verwendest du einen Load Image-Knoten gefolgt von einem VAE Encode-Knoten, um deine Referenz in den Latent Space zu konvertieren
- Denoise muss kleiner als 1.0 sein 鈥?Dies ist der entscheidende Unterschied
Der Denoise-Parameter
Der denoise-Wert im KSampler steuert, wie viel vom Originalbild das Modell beibeh盲lt:
| Denoise-Wert | Effekt |
|---|---|
| 0.0鈥?.3 | Subtile 脛nderungen 鈥?Farbverschiebungen, leichte Stilanpassungen. Originalbild klar erkennbar |
| 0.3鈥?.6 | Moderate Transformation 鈥?merkliche Stil盲nderungen bei Beibehaltung der Komposition |
| 0.6鈥?.8 | Starke Transformation 鈥?neue Details entstehen, Originalstruktur nur locker beibehalten |
| 0.8鈥?.0 | Nahezu vollst盲ndige Neugenerierung 鈥?n盲hert sich dem Text-zu-Bild-Verhalten an |
| 1.0 | Praktisch identisch mit Text-zu-Bild 鈥?das Referenzbild hat fast keinen Einfluss |
Bei denoise 1.0 tr盲gt das Referenzbild praktisch nichts zum Ergebnis bei. F眉r sinnvolles img2img halte den Wert unter 0.9.
Aufbau des Workflows
Schritt 1: Referenzbild laden
F眉ge einen Load Image-Knoten hinzu und w盲hle dein Eingabebild. Dieser ersetzt den Empty Latent Image-Knoten aus dem Text-zu-Bild-Workflow.
Schritt 2: In Latent Space kodieren
Verbinde den Load Image-Ausgang mit einem VAE Encode-Knoten. Dieser wandelt dein Pixelbild in die Latent-Darstellung um, mit der der KSampler arbeitet.
Schritt 3: KSampler konfigurieren
Verbinde alles wie beim Text-zu-Bild-Workflow, aber:
- Setze denoise als Ausgangspunkt auf einen Wert zwischen 0.3 und 0.7
- Schreibe Prompts, die deinen gew眉nschten Ausgabestil beschreiben
- Das Modell verwendet deine Referenz als Ausgangspunkt statt reinem Rauschen
Verbindungs-Checkliste
Stelle sicher, dass diese Verbindungen vorhanden sind, bevor du generierst:
- Load Image 鈫?VAE Encode (samples-Eingang)
- Load Checkpoint 鈫?VAE Encode (vae-Eingang) und VAE Decode (vae-Eingang)
- VAE Encode 鈫?KSampler (latent_image-Eingang)
- CLIP Text Encode (positiv) 鈫?KSampler
- CLIP Text Encode (negativ) 鈫?KSampler
- KSampler 鈫?VAE Decode 鈫?Save Image
Eine gute Startkonfiguration: steps 20, cfg 7.0, denoise 0.5.
Schritt 4: Generieren und Iterieren
Klicke auf Queue (oder Strg+Enter) zum Generieren. Wenn das Ergebnis:
- Zu nah am Original 鈥?erh枚he denoise
- Zu verschieden vom Original 鈥?verringere denoise
- Falscher Stil 鈥?passe deine Textprompts an
Praktische Tipps
- Starte mit denoise 0.5 und passe von dort an 鈥?ein guter Mittelwert
- Dein Prompt z盲hlt weiterhin 鈥?er steuert, was das Modell beim Entrauschen hinzuf眉gt
- Negative Prompts helfen 鈥?verwende sie wie bei Text-zu-Bild, um Artefakte zu vermeiden
- Aufl枚sung ist wichtig 鈥?f眉r SD1.5 盲ndere dein Eingabebild auf 512脳512 f眉r beste Ergebnisse
- Experimentiere systematisch 鈥?probiere denoise-Werte von 0.2 bis 0.8 in 0.1er-Schritten, um deinen optimalen Wert zu finden
H盲ufige Probleme und L枚sungen
Ausgabe sieht meiner Referenz nicht 盲hnlich
- Denoise zu hoch 鈥?senke auf 0.3鈥?.5, um mehr vom Original zu behalten
- Falsche VAE-Verbindung 鈥?stelle sicher, dass der VAE von Load Checkpoint sowohl mit VAE Encode als auch VAE Decode verbunden ist
- Nicht 眉bereinstimmende Aufl枚sung 鈥?盲ndere die Gr枚脽e deines Eingangsbildes auf die native Aufl枚sung des Modells (512脳512 f眉r SD1.5)
Ausgabe ist fast identisch mit dem Eingabebild
- Denoise zu niedrig 鈥?erh枚he auf 0.5鈥?.7 f眉r mehr Transformation
- Schwacher Prompt 鈥?f眉ge mehr beschreibende Schl眉sselw枚rter f眉r die gew眉nschte Stil盲nderung hinzu
Farben oder Kontrast sehen falsch aus
- Dies passiert oft, wenn der VAE deines checkpoints nicht passt. Versuche einen externen VAE (f眉ge einen "Load VAE"-Knoten hinzu) wie
vae-ft-mse-840000-ema-pruned
Referenzbild erscheint verzerrt
- 脺berpr眉fe, ob die Abmessungen deines Eingabebildes durch 8 teilbar sind (Latent Space-Anforderung von ComfyUI)
- Vermeide sehr kleine Bilder (
<256px) 鈥?sie haben nicht genug Details, mit denen das Modell arbeiten kann
N盲chste Schritte
- Text zu Bild 鈥?Falls noch nicht geschehen, lerne die Grundlagen
- LoRA-Anleitung 鈥?Kombiniere img2img mit LoRA f眉r pr盲zise Stilkontrolle
- Upscale-Anleitung 鈥?Verbessere deine img2img-Ergebnisse mit KI-Upscaling
ComfyUI Text zu Bild: Komplette Anleitung & Fehlerbehebung
Schritt-für-Schritt-Anleitung zur Bildgenerierung aus Textprompts in ComfyUI — mit Prompt-Tipps, Parametereinstellungen und Lösungen für häufige Probleme.
ComfyUI LoRA Anleitung: Verwenden, Stapeln & Fehlerbehebung
Komplette Anleitung zur Verwendung von LoRA in ComfyUI 鈥?Installation, St盲rkeeinstellung, Stapeln mehrerer LoRAs und Behebung h盲ufiger Probleme.
Wonderful Launcher Dokumentation