Пікірлер
@suganesan1
@suganesan1 5 күн бұрын
1:15 when you select checkpoint, checkpoint loader shows folder in selection tab. How to enable this folder view?
@ALatentPlace
@ALatentPlace 5 күн бұрын
This is done by the rgthree plugin.
@suganesan1
@suganesan1 5 күн бұрын
@@ALatentPlace thanks for your response, I got it after updating rgthree custom node
@makadi86
@makadi86 9 күн бұрын
I have installed ComfyUI_yanc but I cant find the NIKSampler node!
@WatchNoah
@WatchNoah 10 күн бұрын
Klasse Video, kleine Anmerkung es heißt "neuronales Netzwerk"
@christianstania7023
@christianstania7023 14 күн бұрын
Krita nutzt seit dem neuesten Update auch IPAdapter Embets und weight_type style transfer | composition. Ihr findet die generierten ComfyUI Workwlows in: den in C:\Users\<user>\AppData\Roaming\krita\ai_diffusion\logs.
@jorgvollmer5971
@jorgvollmer5971 14 күн бұрын
hmm interessanter Ansatz, aber ich finde ja, dass das Bild an Qualität verliert. Es wird flacher, verliert Kontrast und wird generell grauer. Die Specular Map müsste aus dem Bild generiert werden und nicht über einen einfachen rgb-Wert.
@ALatentPlace
@ALatentPlace 14 күн бұрын
Das geht. Du kannst aus dem Bild eine Maske erstellen und diese je nach Bedarf bearbeiten, um z.B. nur die hellen Bereich maskiert zu bekommen. Das dann als Specular Map verwenden.
@sky-nomad
@sky-nomad 15 күн бұрын
One question. I don't understand how the "daisy chain" of the Simple Light Source functions. The first "Simple Light Source" box works and produces a OK gradient. I get an error when running to the second "Simple Light Source" box and the process stops wth an error that says: "Error occurred when executing LightSource: LightSource.execute() got an unexpected keyword argument 'prev_image' File "/Users/kaisairanen/AI/ComfyUI/execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Users/kaisairanen/AI/ComfyUI/execution.py", line 81, in get_output_data return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Users/kaisairanen/AI/ComfyUI/execution.py", line 74, in map_node_over_list results.append(getattr(obj, func)(**slice_dict(input_data_all, i))) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^" There is a difference in the 4*"Simple Light Source" boxes in the workflow that I copied from your link and opened in my computer (Macbook Pro M1) in that the fift argument after "end_color #000000" which can be seen in your video, namely "batch_size 1" is missing from my "Simple Light Source" diagram view - might that be the reason?
@ALatentPlace
@ALatentPlace 15 күн бұрын
Are your ComfyUI and the ICLight nodes up to date? Ususally, if a field is missing it indicates a missing update. The prev_images internally just batch in inputted image with the created one, so you get a batch of all chained images in the last node.
@sky-nomad
@sky-nomad 15 күн бұрын
I got the workflow fixed though by replacing the daisy chain by an "Image Batch Multi" node. Works perfectly now also in my environment.
@sky-nomad
@sky-nomad 15 күн бұрын
Great content - well presented and really useful!
@Pascal_Tesla
@Pascal_Tesla 15 күн бұрын
Gute Zusammenfassung. Danke dafür. Waren 2-3 sachen die mir neu waren 😀
@Beauty.and.FashionPhotographer
@Beauty.and.FashionPhotographer 16 күн бұрын
rechts klick auf das bild hier geht beim mac dann gar nicht.
@3dpixelhouse
@3dpixelhouse 16 күн бұрын
also irgendwie wollen die Tiny-Nodes bei mir nicht installiert werden. Ist aber auch wurscht, da das outpainting eh nicht so wirklich gut läuft. ich finde es cool, während der aufnahme einfach spontan etwas auszuprobieren :D kann ja schliesslich auch mal gut gehen! wie ist das denn mit der auflösung/dem seitenverhältnis beim outpainting? scheinbar kann das bild ja beliebig erweitert werden und es ist *piiep*egal welches seitenverhältnis ich habe? am ende kommen bei mir nur nackte und degenerierte körper bei heraus. klar habe ich verschiedene models probiert usw. aber einen wirklich guten übergang von einem semitranspareten stoff zum outgepainteten (was ein wort) bereich, sieht einfach schlecht aus. mir scheint das alles noch sehr beta zu sein. trotzdem danke für deine mühe und zeit! Mach weiter so!
@dowhigawoco
@dowhigawoco 16 күн бұрын
Ich mag ja echt deine Videos die sind wirklich sehr hilfreich aber manchmal denk ich mir " is der aufwand wirklich das wert oder soll ich doch lieber das Bild am schluss mit Photoshop bearbeiten " :)
@ALatentPlace
@ALatentPlace 16 күн бұрын
Der Gedanke ist auch absolut berechtigt. Es spricht nie etwas dagegen, andere Tools für das gezeigte zu verwenden. Da mein Kanal Comfy als Schwerpunkt hat versuche ich aber, alles auch in Comfy zu machen. Das heißt nie, dass es mit anderen Tools nicht einfacher, oder wahrscheinlich auch besser geht. :D Ein Anwendungsfall könnte aber sein, dass man per Script 1000 Bilder erzeugen lassen möchte. Dann ist ein automatisierter Workflow natürlich von Vorteil. Und da ComfyUI eigentlich ein Server ist, der ein UI erhalten hat, sind Aufrufe von außerhalb auf den Server auch eine Option. Wie zum Beispiel über ein Web UI, mit dem man den Workflow triggert und schon im Web gewisse Funktionen erhalten möchte.
@3dpixelhouse
@3dpixelhouse 21 күн бұрын
vielen dank! ich bin mir noch nicht sicher, welcher upscaler wirklich was taugt und überzeugende ergebnisse liefert. mehr kontrast und kräftige dunkle linien an den konturen braucht ja kein mensch! aber hey, ich mag deine unaufgeregte, ruhige art. mach weiter so!
@user-rk3wy7bz8h
@user-rk3wy7bz8h 21 күн бұрын
Nice. Ein Video zu Pulid wäre noch sehr hilfreich da die Installation zu kompliziert ist. Viel Erfolg :)
@Liqwalker123
@Liqwalker123 25 күн бұрын
Kein Workflow ? :(
@Pascal_Tesla
@Pascal_Tesla 25 күн бұрын
Danke für den Vergleich. Sehr interessant. Errinert mich an OpenOutpaint für A1111. Da gibt es auch die möglichkeit für das inpainting "img2img" variante zu nutzen und die "dream" variante. Dream = Orginalpixel verden mti verwendet., img2img wird komplett neu berechnet. PS: Wie stellst du es ein das du im ksamler eine preview hast?
@ALatentPlace
@ALatentPlace 25 күн бұрын
A1111 habe ich nicht lange verwendet, aber es klingt sehr danach, ja. Die Preview kannst Du im Manager einstellen, Preview Method.
@dannywei
@dannywei 26 күн бұрын
Amazing technology. I felt excited to watch this video. I was confused about how to improve detail and clarity in low resolution. It does help me a lot.
@magimyster
@magimyster 27 күн бұрын
Hi! Thanks for the great guide! To better blend hair with the background, I used "u2net: general purpose" within the remove background session. I found that it provided better results for hair segmentation.
@matthewfuller9760
@matthewfuller9760 28 күн бұрын
Amazing video. Thanks for the subtitles. Can you share with me your system specifications? Especially gpu and ram? Thanks!
@ALatentPlace
@ALatentPlace 28 күн бұрын
Thanks. :) I have a 3080 TI and 32GB RAM. CPU is a Ryzen 3900x. But I speed up parts in the videos, to not only show denoising time.
@matthewfuller9760
@matthewfuller9760 28 күн бұрын
@@ALatentPlace interesting. Do you wish you had a slow card but more VRAM? The 4060 ti is so slow but when you run out of vram you pay a 10 to 100x performance penalty right?
@Liqwalker123
@Liqwalker123 29 күн бұрын
SAM ist ja unfassbar stark! freue mich schon drauf das auszuprobieren. Ich schaue gerade alle deine Videos, da du dir sehr viel Zeit nimmst und ausführlich erklärst dauert das ganze ein wenig aber es macht spaß die Videos zu schauen! Vielen Dank für die Serie!
@HasiorSchoderwos
@HasiorSchoderwos Ай бұрын
Ich schaffe es nicht CLIPSeg zu installieren, es wird einfach nicht importiert! Alles andere funktioniert, nur diese eine Node nicht, gehts anderen auch so? Ansonsten, wie immer ein klasse Video Hasior UPDATE: Ich habe den PIP Pfad neu eingetragen und nun funktioniert alles 🙂 ABER, wie oder wo stelle ich es ein, das jede Box auch so beschriftet ist wie bei dir?! (KJNodes for ComfyUI)
@stephankuebler762
@stephankuebler762 Ай бұрын
@A Latent Place - Q= Habe jetzt schon viele KZbin videos gesehen und täusche ich mich oder läuft der Workflow bei Dir nicht immer von ganz am anfang an ? Falls ja - wie mache ich das... Bei mir startet jedes "Queue Prompt" klicken bei step 1. Bedeuted im diesem beispiel es würde 1 Bild (4Sampler) 80 mal Rendern um 1 einstellung zu Testen. ;(
@ALatentPlace
@ALatentPlace Ай бұрын
Comfy updated nur die Nodes, die sich verändert haben. Deswegen stelle ich den Seed immer auf "fixed", damit der Sampler nicht neu denoised.
@DjHerzbeben
@DjHerzbeben Ай бұрын
Hey tolle Seite kannst du mir ein Beispiel zeigen wie man ein Clip erstellt wo eine Tanz also Musik Video für TikTok möchte ich machen mit eine oder 2 Damen die Dance machen
@Liqwalker123
@Liqwalker123 Ай бұрын
Ich finde du hast das sehr gut gemacht. Du hast frei gesprochen, du hast Pausen genutzt und Bilder eingesetzt. Von mir würdest du für diese Präsentation eine 1 bekommen.
@pixelcounter506
@pixelcounter506 Ай бұрын
Thank you very much! Regarding this new node, foreground lighting is great! Regarding background changes, I'm not really convinced at the moment (but I still have to start with IC-Light). If your light source for the foreground (e.g. face) stays the same and you are lightening only the background, you'll have the impression that the face becomes darker und less prominent. It's the other way round, if you are only darkening the background (and the face still has the same light intensity). The face will be lit to same amount, but becomes more prominent in the image due to the lower light intensity of the background.
@ESnet3D
@ESnet3D Ай бұрын
Nice Collection! Wenn man im Folder das %date% Format mit eingibt: MeinOrdnername/%date:dd-MM-yyyy% wirft die Node nen Not a Directory Error 427 aus
@ALatentPlace
@ALatentPlace Ай бұрын
In der Save Node wäre das: MeinOrdnername/%d-%m-%Y
@RahulGupta1981
@RahulGupta1981 Ай бұрын
I always get different image generated, what wrong I am doing? how you getting same image with extra details? if this workflow available for checking?
@ALatentPlace
@ALatentPlace Ай бұрын
You need to make sure that both samplers have the same settings.
@adalovecraft2140
@adalovecraft2140 Ай бұрын
I’m not a German speaker, but I have learned more from your videos than any other resource. Thank you <3
@xxraveapexx2750
@xxraveapexx2750 Ай бұрын
hm. hab nun alls soweit eingeestellt wie du es bis zum ersten testlauf bei 10:48 auch hattest. bei mir kommt, sobald der Prozess beim 2ten K- Sampler angekommen ist ploppt ein Fenster auf, mit neim Ewiglangen text "Error occurred when executing KSampler: mat1 and mat2 shapes cannot be multiplied (462x2048 and 768x320) ..." was genau ist damit gemeint? ist das problem etwa, dass ich einen SDXL Checkpoint nutze? gibt es da evtl ne alternative?
@dxnxz53
@dxnxz53 Ай бұрын
cooles tutorial. dazu ne Frage: Kommt das nicht aufs gleiche raus, wenn ich zwei Sampler hintereinander schalte und z.B. den ersten nur 15 steps samplen lasse und den Rest Noise an den nächsten übergebe, der dann ab Schritt 15 anfängt? Wäre cool, mal einen Unterschied zwischen den beiden zu sehen. Danke & LG! Keep the good stuff coming.
@ALatentPlace
@ALatentPlace Ай бұрын
Korrekt, so funktioniert es intern. Das habe ich damals in meinem Workflow so gebaut und jetzt in einen eigenen Sampler umgewandelt. :)
@pk.9436
@pk.9436 Ай бұрын
schönes Tutorial wie immer und starke nodes
@teitis9409
@teitis9409 Ай бұрын
was für eine Hardware hast du?
@TheDocPixel
@TheDocPixel Ай бұрын
Wichtigste: 1x Nvidia 4090 RTX GPU Alles anders ist egal, aber ein schnelle SSD mit viel Speicherkapizität ist auch ein Vorteil
@ALatentPlace
@ALatentPlace Ай бұрын
Das läuft auf einer 3080TI. Aber im Video beschleunige ich die Phasen, in denen man nur das denoising sieht.
@wholeness
@wholeness Ай бұрын
I really feel like this is the Magnific secret.
@weaze5583
@weaze5583 Ай бұрын
Wie cool ist das denn ?! Mega. Wie man auch wirklich nur den hintergrund/vordergrund durch die depth map mit zusätzlichem noise beeinflussen kann. Klasse. ganz ganz toll. Selbstgebaut ? heftig !
@weaze5583
@weaze5583 Ай бұрын
gibt es eine möglichkeit ein "start_at_step/end_at_step" zum sampler hinzuzufügen? vielleicht durch ein gadget? oder ein advanced NIKSampler? 😇
@ALatentPlace
@ALatentPlace Ай бұрын
Das hatte ich anfangs eingebaut, dann aber wieder raus genommen. Es wurde ziemlich schwer kontrollierbar damit. Aber so etwas wie einen Advanced Sampler, bei dem man mehr Möglichkeiten hat, habe ich auch im Kopf.
@testales
@testales Ай бұрын
Nettes neues Spielzeug, muss ich unbedingt bald ausprobieren! :) Ich benutzte immer noch ein Makro beim Upscaling, dass Deinem ursprünglichen Noise-Injection Ansatz inspirtiert ist, allerdings im Pixelspace und mit einen anderen Noisegenerator und diversen Masken, so dass im Hintergrund weniger Noise generiert wird, als im Vordergrund etc. damit man nicht z.B. einen Himmel voller Fliegen erhält.
@user-pq2xd9rn9u
@user-pq2xd9rn9u Ай бұрын
Super Video und Top erklärt 🙂 Was mich noch interessiert. Ich hab erst jetzt mitbekommen, dass es auch ComfyUI gibt, davor war ich nur mit Automatic1111 unterwegs. Jetzt wollte ich mal fragen, welches dieser Web-UI Interfaces für Fortgeschrittene ist, bzw. bietet mehr Funktionalitäten und Möglichkeiten an? Es scheint zumindest so zu sein, dass ComfyUI mehr Freiheitsgrade zulässt. Ich bin auch am Überlegen, ob ich nicht auf Stable Diffusion aufsetzen sollte (ohne UI), um mir meine eigene Applikation zu entwickeln, um damit effektiver arbeiten zu können. Vielen Dank schon mal 🙂
@ALatentPlace
@ALatentPlace Ай бұрын
Danke schön. :) Ich würde immer ComfyUI empfehlen. Da es auch die offiziell benutzte Software im Hause StabilityAI ist (die Macher von Stable Diffusion) kommen Updates immer zuerst in Comfy. Der Name ComfyUI ist auch etwas missverständlich gewählt. Eigentlich ist es ein Server, der Workflows verarbeitet. Du kannst also Applikation auf diesen Server aufsetzen. Ein gutes Beispiel dafür findet sich auf Matteos Kanal: kzbin.info/www/bejne/l5-8eXppbMuInZYsi=fRFFjCubaCT78IfC
@user-pq2xd9rn9u
@user-pq2xd9rn9u Ай бұрын
@@ALatentPlace Oh, super. Hört sich vielsprechend an, vielen Dank, werde ich in jedem Fall machen. Cool, dann werde ich ComfyUI aufsetzen, schau mir deine Videos dazu an 🙂und ich guck mir ebenfalls den Kanal von Matteos an. Tausend Dank für die schnelle Rückmeldung 🙂
@sirmeon1231
@sirmeon1231 Ай бұрын
8GB VRAM sind leider etwas überfordert damit 😂
@user-rk3wy7bz8h
@user-rk3wy7bz8h Ай бұрын
I don't see the multiple_of in the image resize of Essentials. Is that normal?
@ALatentPlace
@ALatentPlace Ай бұрын
I would say you need to update them.
@danwill8766
@danwill8766 Ай бұрын
Vielen Dank für diesen wirklich sehr hilfreichen Input! Ich komme bereits als Anfänger gut damit klar und komme immer weiter in die Materie und verstehe nun auch die Prozesse dhinter. Nur eine Frage: Hast du eine Ahnung, warum dein Sampling so schnell läuft? Ich habe ein MacbookPro mit M3max, und mein Sampling dauert sehr viel länger. Habe den Unified Loader auf OpenML gestellt. Hast du eine Idee? Freue mich auf weitere Erklärvideos!
@ALatentPlace
@ALatentPlace Ай бұрын
Ich kenne mich mit MacBooks leider nicht aus. Ich benutze hier eine 3080 TI. Allerdings ist die Geschwindigkeit in den Videos hier und da auch immer etwas erhöht, damit man als Zuschauer nicht so lange dem Sampling Prozess zuschauen muss.
@Killerhippo111
@Killerhippo111 2 ай бұрын
Hey, ich habe gerade angefangen deine Videos einmal von Anfang durch zuschauen, und weiß daher nicht was später sich noch ändert. Daher ist die folgende Frage vllt. auch überflüssig. Sollte das Latent Image welches für das Basemodel genutzt wird nicht 128x128 Pixel sein und erst später auf 10124x1024 Pixel refined werden? Kommen daher die nicht zufrieden stellenden Ergebnisse ?
@ALatentPlace
@ALatentPlace 2 ай бұрын
SDXL wurde auf 1024x1024 trainiert, daher ist das die Basis Auflösung. Den Refiner kann man danach ähnlich einer LoRA benutzen, ist bei fast allen Community Models nicht mehr nötig.
@Killerhippo111
@Killerhippo111 2 ай бұрын
@@ALatentPlace Danke für die Aufklärung. :)
@JebKerman-pm9sj
@JebKerman-pm9sj 2 ай бұрын
我尝试去搜索“fofo”,唯一能找到的就是“Fofo Panda”,youtube上的一个儿童动画的频道,插件作者也许很喜欢这只熊猫吧,我猜测
@JebKerman-pm9sj
@JebKerman-pm9sj 2 ай бұрын
还有,我的comfyui的插件列表里,现在“fofo”这个菜单名称里也包含一个熊猫的emoji
@ALatentPlace
@ALatentPlace 2 ай бұрын
Haha, ok. Thanks for the info. The naming still does not make much sense, but a least it's cute. :D
@damned7583
@damned7583 2 ай бұрын
how to install chekpoint for comfyui colab?
@kikoking5009
@kikoking5009 2 ай бұрын
The IPadapter Unified Loader FaceID Shows a Error. IPAdapter model not found. I have 4 Downloaded FaceID models in ComfyUi_models_loras Kannst du mir irgendwie helfen?
@ALatentPlace
@ALatentPlace 2 ай бұрын
Die Models müssen im richtigen Ordner liegen und den richtigen Namen haben. Am besten die gleichen Namen wie auf der GitHub Seite verwenden: github.com/cubiq/ComfyUI_IPAdapter_plus?tab=readme-ov-file#installation
@kikoking5009
@kikoking5009 2 ай бұрын
Ah ja danke sehr hab es gefixt. Ich habe auch seit ne woche mehrere Errors, falls du mir helfen könntest: 1 . Working with Get Sigma ( from Comfyui Essentials) it shows this error : Error occurred when executing BNK_GetSigma: 'SDXL' object has no attribute 'get model_object 2working with ReActor i get this: Error occured when executing ReActorFaceSwap: This ORT build has ['TensorrtExecutionProvider', 'CUDAExecutionProvider', 'CPUExecutionProvider'] enabled. Since ORT 1.9, you are required to explicitly set the providers parametee when instantiating InferenceSession. For example, onnxrunyime.InferenceSession(..., providers=['TensorrtExecutionProvider', CUDAExecutionProvider', ' CPUExutionProvider'],...) Und mit Noise Injection note von Essentials zeigt es SDXL has no attitude 'get model object'. Update hab ich mehrmals gemacht. Nun überlege ich comfyui zu löschen und nochmal zu installieren, weiss aber nicht ob das helfen kann. Kannst du mir irgendwie helfen?
@ALatentPlace
@ALatentPlace 2 ай бұрын
Ich habe mal bei Matteo nachgefragt. Er sagte, die BNK Nodes (BNK_GetSigma) sind noch nicht auf dem letzten Stand. Der zweite Punkt deutet trotzdem auf eine nicht geupdatetes Comfy hin. Wie updatest Du denn über? Über den Manager. Falls ja probiere es mal mit der update_comfyui.bat.
@kikoking5009
@kikoking5009 2 ай бұрын
@@ALatentPlace Erstmal danke sehr für die Mühe. Ich habe (update_comfyui.bat)und ( update/update_comfyui.bat) in ComfyUI_windows_portable unter cmd geschrieben und auch in ComfyUI_windows_portable- update unter cmd. Einmal hat es etwas geupdatet glaube ich und meinte drucke irgendwas to continue. Der Error ist leider immernoch da. Wenn ich ComyUI starte sehe ich das: warning your inference package version 0.9.13 is out of date please upgrade to _init_.py:32 version 0.9.22 of inference for the latest feautures and bug fixes by running 'pip install --upgrade inference'. SupervisionWarnings: BoxAnnotator is deprecated: BoxAnnatator' is deprecated and will be removed in supervision-0.22.0'. Use 'boundingsBoxAnnotator' and 'LabelAnnotator' instead Ich hoffe du hilfst mir weiter :)
@Royvcent
@Royvcent 2 ай бұрын
Thanks a lot for the great videos! Do you know a way to only use the eyes and/or eyebrows from a photo and transfer it with IPAdapter? I've tried it together with FaceDetailer and GroundingDino segments but I can't seem to make it work.
@patisserie2163
@patisserie2163 2 ай бұрын
I have test clip a lot. The problem is clip in ksampler, it doesn t work as they should. It is true for different nodes which have clip into ksampler. In your case I presume that clip 0 is the same as comfyui with no clip set layer. Made a comparaison and you see if there is a difference with native comfyui. More over I am not sure that -1 is the last layer this will not be logical to my opinion. Why will comfyui will start by the end ? What will be the end number then ? If we think like a programmer 0 is the first layer that means that 1is the second layer
@einfachich5637
@einfachich5637 2 ай бұрын
Vielen Dank. Endlich mal ein Video das bei mir auch - super - funktioniert, und dazu auch noch in deutsch. Daumen hoch.
@shawnington
@shawnington 2 ай бұрын
What node pack is the instructpixtopixconditioning node in?
@ALatentPlace
@ALatentPlace 2 ай бұрын
It's in ComfyUI, no node pack needed. If it's missing you have to update ComfyUI.
@MikevomMars
@MikevomMars 2 ай бұрын
Hier wird (etwas spät) erklärt, worum es eigentlich geht: 4:30
@sudabadri7051
@sudabadri7051 2 ай бұрын
thank you this is a great chan!
@vincentdutour5026
@vincentdutour5026 2 ай бұрын
Hi ! You should look about cosXL too :)
@user-WernerF
@user-WernerF 2 ай бұрын
Schöner Spass, macht Laune