Super Video! Und Du glaubst gar nicht wie gut das tut, dass bei Dir nicht jede AI-Neuigkeit gleich "mindblowing" ist oder den Lauf des Planeten angeblich verändert.😆 Sondern einfach ein Video, das sachlich mit Tiefe und sehr interessant gemacht über diese Dinge informiert. Ich nutze Forge, zuvor Fooocus und kämpfe mit mir, ob ich ComfyUI eine Chance gebe, aber (ohne ein Experte zu sein) die Ergebnisse, die ich bei anderen sehe, hauen mich nicht so um, als dass ich denken, ich muss wechseln. Besonders bei FLUX bin ich zurückhaltend, da die Flux-DNA so deutlich in jedem Bild steckt (was ich sehe), dass ich die Vielfalt von SDXL vermisse. Natürlich ist FLUX mega gut, ohne Frage, und vielleicht entwickelt sich das ja noch, dass man nicht sofort den Flux-Fingerabdruck bei jedem Bild sieht.😉😊
@martinhullwegen100510 күн бұрын
Danke!
@wossi868 күн бұрын
Oh, auch Danke dafür!! 😄
@Schawum13 күн бұрын
--- vielen dank für das video und vorallem die vergleiche. sagt 1000 mal mehr als worte. 🙂
@TechSergeant13 күн бұрын
Vielen Dank für die Mühe, das auch mir verständlich rüber zu bringen. Das erste Mal, dass sowas lokal auf meinem müden PC läuft. Welche Deiner Videos sollte ich als Anfänger unbedingt noch anschauen, um mein Wissen und Verständnis darüber weiter auszubauen? DANKE!
@TheFisherman659 күн бұрын
Hallo, es ist nicht so, dass Flux Wassereffekte nicht darstellen kann. Zum einen muss natürlich der Prompt anders geschrieben werden als für SD. Die Ergebnisse können unglaublich nah am Prompt sein, für dieses Merkmal ist Flux - neben seiner ästhetischen Qualität - bekannt. Zum anderen bringen die gleichen Sampler und Scheduler nicht unbedingt die erhofften sehr ähnlichen Ergebnisse. Ich habe mich Spasses halber 10 Minuten mit dem Prompt Deines Bildes von der blauen Dame im Wasser beschäftigt, das bei Civitai zu finden ist. Mit priorisierten Sätzen, dem Flux1-dev Model, ipndm Sampler und sgm-uniform Scheduler habe ich in kurzer Zeit sehr ansprechende Ergebnisse erzielt, inkl. detailliertem Wassergeplansche etc. Die gelegentlich erwähnte Ahnlichkeit von Gesichtern in mit Flux-1 Dev erzeugten Bildern kommt durch die Reduzierung des Datensatzes aus der Pro Version - die hat das Problem dementsprechend nicht. Für die Dev-Version gibt es natürlich LoRas, die diese Vielseitigkeit wieder injizieren. Insofern verhält sich das Flux Diffusion Modell so wie viele SD Checkpoints - den Trainingsdaten entsprechend gibt es immer irgend einen Schwerpunkt.