ya me he podido poner al dia con todos los videos de IA y poniendo en practica este ultimo para mi flujo de trabajo real. Muchas gracias por lo que haces, espero poder seguir aprendiendo con tus videos.
@adanmq2 ай бұрын
Espero poder retomar los videos después del verano. con mas AI ;)
@calibrateddreamscape16132 ай бұрын
Muchas gracias Adán por tu brillante labor didáctica y divulgativa. Es de gran ayuda para navegar en esta marea de herramientas que surgen más deprisa de lo que se pueden asimilar. Sería estupendo ver en el canal un video que explore esta técnica de control con máscaras en ComfyUI en un caso de estudio más relacionado con el diseño urbano. En este campo en particular, últimamente se está usando la IA para detallar edificios que en la imagen de base son poco más que una extrusión de geometría muy básica. Un problema que encontramos los profesionales utilizando plataformas como LookX, es la falta de control sobre edificios determinados, y no sobre la imagen total. En mi opinión, sería muy interesante explorar las posibilidades que este método ofrece para controlar una escena urbana con muchos edificios. Sería muy clarificador poner a prueba el nivel de control que se puede alcanzar a través de ComfyUI y ControlNET usando máscaras, para modificar o detallar edificios concretos dentro de la visualización de una calle, o una perspectiva aérea. Es sólo una propuesta y me encantaría saber cómo lo afrontarías tu. Tengo la certeza de que muchos profesionales están lidiando actualmente con este desafío. Un saludo!
@dvesco4 ай бұрын
xuapeti, gracias nuevamente por tus tutos. Adán, podrías hacer uno en una escena con varias personas, en diferentes planos, Dof etc, Llevo varias semanas experimentando con ello y es algo complicado de conseguir. Creo que lo mejor sería usar 2 máscaras del render para hombres y otra para mujeres, aunque sin mascaras la segmentación automática sería interesante de ver, + CN + Yolo Face (sin entrar en detalle de cómo se arma) y de alguna manera tener un resultado relativamente consistente gracias.
@samuelbonilla11104 ай бұрын
Me encanta que uses ambos!!
@adanmq4 ай бұрын
Así voy viendo diferencias xD. Cual te gusta más?
@samuelbonilla11104 ай бұрын
@@adanmq ComfyUI
@samuelbonilla11104 ай бұрын
@@adanmq ComfyUI
@samuelbonilla11102 ай бұрын
@@adanmqComfyUi
@israelantunez76124 ай бұрын
Como siempre, tu conocimiento y forma de difusión es top level. Gracias.
@Abelbus4 ай бұрын
Muchas gracias por la clase tan detallada y bien explicada "papá" 😄...podrías subir el workflow a algún sitio ? Gracias de antemano !
@ToNeArchViz4 ай бұрын
Buenos días Adán, llevo unos dias con ComfyUI lo estoy utilizando sobretodo para mejorar personas y finalmente he conseguido obtener muy buenos resultados. Con menos nudos que en tu video, me gustaría compartir contigo el archivo .json para saber que opinas y si he hecho algo incorrecto o una captura de pantalla. Un saludo y muchas gracias por todo lo que hace!!!
@adanmq4 ай бұрын
Claro, mándamelo por mail si quieres o por Instagram. Info@3dcollective.es
@adanmq4 ай бұрын
Hola. Ya he podido ver tu Json. Estas usando una estrategia muy diferente a la que muestro en este video. Primero estas optando por USD Upscaler que es completamente diferente a Tiled Diffusion. El upscaler hace la generación en pequeño y luego la escala mientras que Tiled Diffusion hace la diffusion al tamaño deseado. No es que unos ea mejor que otro pero son diferentes y es importante tenerlo presente. El nodo de control net en negativo te sobra, puedes usar directamente el advanced control net si quieres condicionar también el negativo y recuerda que mas o menos nodos no es lo importante, por ejemplo el nodo de USD Upscaler es un nodo enorme que abarca muchos procesos y es lento. Si quieres medir la optimización compara resultados en términos de calidad con tiempo de uso de la GPU. Puedes incluso combinar ambas estrategias, Tiled diffusion para ahorrar ram y SDUpscaler para el escalado por tiles. O puedes suar SEGS para la fragmentación, con comfyUI hay cientos de opciones.
@arqbolognesi4 ай бұрын
muy util! estaba esperando este video desde hace varias semanas
@jeoc272 ай бұрын
Hola Adán, excelente video. Harás alguno de comfyui para renders de animaciones? Gracias
@OnofreOne3 ай бұрын
Adán, hasta el momento todo me funciona genial mejorando el aspecto de mis personas 3D, pero me falta poder cambiar expresiones faciales o ropa, te pongo el ejemplo de un trabajo real que me piden personas en pijama y sonrientes, es un filtro muy pequeño por lo que seria genial poder colocar algunas personas que no cumplan alguno de los requisitos como la sonrisa y luego modificarla. He escuchado que nombras ipadapter o algo parecido, pero por mas que pruebo con videos y tutoriales em ingles, no consigo que quede realista, haras video al respecto o que me recomiendas? Muchas gracias!
@adanmq2 ай бұрын
Hola!. IPAdapter es como un controlnet, pero tienes la posibilidad de especificarle que cara y que ropa tiene el personaje. Eso si, suele requerir un setup mas complejo y mucha prueba. Lo planeo cubrir después del verano, he estado malo estos días y no me dio tiempo xD. Casi todo lo que hay es en Ingles, pero igual viendo los workflows puedes tratar de hacerte una idea.
@1biohazer3 ай бұрын
necesitamos mas videos de comfyUI!!
@adanmq3 ай бұрын
Hola. Tengo pensado hacer más, justo ahora tenemos el cierre del curso 2024 en la escuela y tengo menos tiempo, pero pronto retomamos los videos.
@caronte19744 ай бұрын
genial.... gracias por ese gran trabajo
@CarlosHernández-k8s3 ай бұрын
Hola Adán, muy buen video como siempre. He seguido el mismo proceso que haces pero obtengo un resultado incorrecto. Te podria enviar el jason o si no las capturas de los nodos? Saludos
@Marcos828734 ай бұрын
Gracias Adán. Consegui replicar os resultados, mas acabei decidindo que vou me dedicar a interface A111, pois achei mais intuitiva e dinâmica. Esse monte de nodes é coisa de maluco kk. Abração
@Marcos828734 ай бұрын
é legal ter uns arquivos JSON fáceis a mão pra uma coisa ou outra, mas trabalhar na rotina com ConfyUI (e não se embananar) tem que ser muito expert.
@sienes74754 ай бұрын
Gran video maestro !
@fuhrernmss3 ай бұрын
despues de ver esata increible herramienta, tyflow saca su version de ia, tyDiffusion.... esto es un no parar 😵
@adanmq3 ай бұрын
en realidad tydiffusion es esto mismo, no es nuevo, es solo otra UI mas para SD. Parece que hay muchas, pero solo hay una herramienta. Y no creas que puede hacer mucho xD. A la gente le gusta exagerar lo que puede hacer la AI
@SirHeineken14 ай бұрын
That's awesome as always!!! Thanks!! ...BUT! Million dollar question: how do i manage masks of 2 or more people scattered at the opposite sides of the image(that would waste a lot of resolution space in the inpaint)? Do i need to load the image twice and then... hehe what do i do? Double positive text encodes? A "blend overlayed inpaint node"(idk if it exist). Excelent job, it would be sooo cool another in depth-analysis on this topic
@adanmq4 ай бұрын
Hi!. That's something I plan to cover in a different video. You can use SEGS to segment the process and make it focus only on the necessary parts. And you can combine this with automatic segmentation to fully automate the detection and inpainting of people. I choose to start with very simple tutorials as an introduction to the tools. If people are interested I can make more advanced ones. If you can ́t wait just explore the "Impact Pack" nodes. You can do it using those tools.
@greckoist4 ай бұрын
me encanto muchas gracias una pregunta como se podria hacer con multimascaras o como se llama el nodo?
@adanmq4 ай бұрын
Con Multimatte?. Muy sencillo, cargas tu multimatte como imagen y usas el nodo que muestro en este video que se llama "convert image to mask" en ese nodo puedes seleccionar en canal RGB que prefieres para la mascara. Si te refieres a cryptomatte, no creo que tengamos un nodo que lo permita en comfy, tocaría sacarlas a mano desde el motor u otra aplicación. También hay herramientas de segmentación automática como yolo o similares. Los mostrare en futuros videos.
@nomackleo4 ай бұрын
Hola pasaba por acá y me encontré perdido, por la interfaz que estás usando y estoy lleno de dudas y ganas de aprender ¿Dónde aprendo a usar la aplicación que usas para todo el proceso?
@adanmq4 ай бұрын
En mi canal tienes un vídeo de introducción a comfyui. El enlace está en la descripcion
@nomackleo4 ай бұрын
@@adanmq muchss gracias maestro.
@alvaro_marbert3 ай бұрын
Buenas, utilizo A1111 y quiero empezar a usar ComfyUI. Para evitar duplicar modelos y archivos, cambié la ruta de ComfyUI según comentaste en el tutorial anterior. Los checkpoints y modelos de controlnet me funcionan. Lo que no consigo enconrtar es como meter los preprocessors como depth, reference etc. Alguna idea de como se puede hacer?
@adanmq3 ай бұрын
esos son los de controlnet, para usarlos ya hay nodos especificos en comfyui con los nombres. Tambien peudes usar un load controlnet model.
@alvaro_marbert2 ай бұрын
Buenas, tengo una duda sobre qué grafica comprar para stable diffusion principalmente. Qué me recomiendas, la 4060 ti con 16 gb de Vram o la 4070 de 12gb de Vram. Estan las dos aproximadamente por el mismo precio y no se qué me conviene mas para este uso, si tener mas Vram o más velocidad de procesamiento. También la usaria para Unreal Engine. Muchas gracias por tu canal!!
@adanmq2 ай бұрын
@@alvaro_marbert normalmente es mejor más vram para ai. Aunque las generaciones sean un poco más lentas. Pero solo tú sabes que uso le darás.
@alvaro_marbert2 ай бұрын
@@adanmq muchas gracias Adan!
@needsomenice3 ай бұрын
Thanks!!
@juandeus304121 күн бұрын
Hola Adán. Yo intento seguir al pie de la letra primero y experimentar después. Aparte de que he sido incapaz de encontrar un nodo simple para controlNet (he probado con todo y los que uso yo me piden conectar los prompts, el VAE... es más complejo y como digo el simple no lo he encontrado en ningún repositorio) me he encontrado un problema ahora con tu setup y es que probando con una imagen panorámica, la máscara se me desajusta y el inpaint me lo hace descolocado. No soy capaz de situarlo bien, es como si por un lado me estuviera cambiando el formato de imagen a cuadrado (para la máscara) y para el overlay no... intento seguir el flujo para encontrar el error pero en teoría debería estar bien y no hay manera. ¿Es necesario recortar la imagen a un formato cuadrado (para que encaje en estos formatos de 1024x1024/512x512...) antes de procesarla en ComfyUi?
@juandeus304121 күн бұрын
Me respondo a mí mismo por si vale de algo para alguien: Efectivamente, trabajar con un formato de imagen cuadrado ha resuelto el problema anterior. No sé si tiene sentido, estoy seguro de que algo se me escapa pero repaso el vídeo paso a paso (adaptando el tema de ControlNet al nodo más complejo con el que tengo que trabajar, y que no influye porque el problema se manifiesta ya trabajando antes de incorporar ese nodo) y si uso un formato de imagen apaisado la máscara no coincide bien con la capa trasera (inpaint y overlay no coinciden). Convertir la imagen a cuadrado y encajar después en photoshop arreglan el problema, como solución provisional es lo que he visto.
@user-mz7oh6qr6z2 ай бұрын
hay alguna manera de hacerlo para múltiples personajes como en el video de a1111?
@adanmq2 ай бұрын
Si claro. Tenia pensado sacarlo antes, pero lo hare ya despues de las vacaciones de verano. xD. Pero se peude hacer igual
@lucasthomasbecher52144 ай бұрын
Gracias miles Adán, vos sabes que no puedo econtrar el prepare image and mask :c
@lucascompagnucci4 ай бұрын
yo igual, seguramente hay que instalarlo, pero no lo encontre con ese nombre
@lucascompagnucci4 ай бұрын
ahi lo encontre, buscalo como: comfyui-art-venture el autor es sipherxyz
@lucasthomasbecher52144 ай бұрын
Claro yo también lo busque, incluso actualicé el confi pero nada
@adanmq4 ай бұрын
Es de un nodo extra, mira como se llama y búscalo con el manager. Si no sabes cómo mira el vídeo de introducción a comfyui
@adanmq4 ай бұрын
@@lucascompagnucci en mi vídeo verás que los nodos tienen un texto en la parte superior, este es de art-venture si no recuerdo mal. Pondré luego los links
@ingeniosoleonalmeida58774 ай бұрын
Está muy bien el video ,pero no vaya tan rápido explicando las cosas para la gente que empieza nuevo ComfyUI
@adanmq4 ай бұрын
Hay un vídeo de introducción en el canal
@Abelbus4 ай бұрын
Yo no consigo encontrar el nodo "prepare image mask for inpaint"
@adanmq4 ай бұрын
Es un nodoe xtra que hay que instalar, en la descripcion estan los enlaces. Puedes ver el nombre del nodo en la parte superior para buscarlo en el manager.