PREGUNTA que parte esta Prompts Abstractos quiero usar fotos y que me digas las indicaciones Prompt en ComfyUI file no se en donde es
@Brujah19887 ай бұрын
Ufff... Adan tus tutoriales son de una calidad tan alta que me siento culpable de tan solo mirarlos de forma gratuita, considera habilitar el boton para donar/agradecer! Espectacular video! Yo vengo usando A1111 hace meses pero gracias a este tutorial me decidi a darle una chance :)
@adanmq7 ай бұрын
Nunca entendí como va eso con KZbin. Hace tiempo pensé abrir un Patreon, pero quedo en nada. Pero da igual, lo importante es que sea de utilidad el contenido.
@gabrielsperavisual5 ай бұрын
Gracias, de verdad. Por tu profesionalidad, tu claridad y tu gana de compartir tus conocimientos.
@ArmokAyo6 ай бұрын
Hola, llegué por casulidad y me está encantando el vídeo. Hace algún tiempo trasteé con Automatic y poco más. Ahora me había propuesto retomar un poco la generación de imágenes y empezar con ComfyUI. Con este vídeo me he animado a ello. Muchas gracias está muy muy muy bien explicado (y lo digo con capacidad de análisis).
@caronte19747 ай бұрын
muchas gracias por compartir tanto conocimiento.... como siempre gran trabajo
@nilo3d7 ай бұрын
Amigo, muchas gracias por tus esfuerzos para ayudar a nuestra comunidad. Eres una de las personas que marca la mayor diferencia en la comunidad 3D del mundo. ¡Un gran abrazo desde Brasil!
@vb27x7 ай бұрын
Sigo tu canal desde el principio y puedo decir: ¡Eres el mejor! Continúe trayendo más videos sobre ComfyUI.
@fernandoarqcarmona7 ай бұрын
Muchas Gracias Adan excelente tutorial! por cierto debes aplicar el boton de donación en tu canal, al final este es tu trabajo y creo yo que eso da a pie de publicar videos mas seguidos muchos youtubers lo ha hecho y creo yo que tus conocimientos son valiosos, saludos desde colombia.
@Javor20127 ай бұрын
Muchas gracias Adan por compartir tu conocimiento!! Impresionante trabajo!!
@jajandio7 ай бұрын
Hola Adán, conciso y claro video como siempre. En respuesta a tu pregunta, creo que un buen siguiente paso sería ver como podemos reemplazar algunas de las herramientas de AI de Photoshop que son practicas pero al menos en mi experiencia la calidad es muy mala. Se me ocurre generative crop (o outpainting), reemplazar un objecto (muebles, artefactos, plantas), generative fill (inpainting) o incluso cambios de iluminación (día - noche?). Gracias!
@Allisonthiago3d7 ай бұрын
Muchas gracias. Realmente eres un hombre de honor y mereces todo el respeto por tus esfuerzos. Que Dios continúe bendiciéndote con toda la sabiduría
@denislopez97457 ай бұрын
Excelente vídeo. Muchas gracias por compartir su conocimiento, es el mejor...🎉
@SamichaySense5 ай бұрын
¡¡Increible!! ¡Gracias por un tutorial de tan alta calidad!
@andreuarevalo7 ай бұрын
Muchísimas gracias Adán! Muy inspirador y preciso! Estaría genial si pudieras profundizar con algún otro vídeo en la generación de bocetos o imágenes tipo comic, pintura, etc a partir de renders. Es una demanda cada vez más popular y algo compleja de controlar en cuanto a la pérdida de detalles claves o consistencia general. Un abrazo!
@fernan19627 ай бұрын
Muchísimas gracias Adán. Extraordinaria explicación. Me gustaría que siguieses profundizando en Archviz.
@edumaganto7 ай бұрын
Gracias Adán! 👏🏻👏🏻 Se me ocurren mil cosas, por ejemplo, como cambiar la iluminación de un render o de condiciones climáticas, es decir, por ejemplo hacer nevada la escena que usas o cambiar la iluminación a una nocturna… sin que pierda consistencia, o como cambiar parte de entorno de un render por otro, no sé si me explico, por ejemplo cambiar el bosque de tu escena por un acantilado que da al mar… o como mejorar una foto de google earth…
@RAFASUAREZ137 ай бұрын
Gracias por todo Adán, increible explicacion como siempre.
@francoolivares10717 ай бұрын
Profesional como siempre Adán ! muchas gracias por el contenido✌
@adanmq7 ай бұрын
Gracias a ti! Saludos!
@Caracola20237 ай бұрын
Adán muchísimas gracias por este video , como siempre supera a todos los vídeo que hay por las redes , yo estuve viendo un tutorial de interiores dónde cambiaaba ,materiales a los muebles y objecrtos en un interior , si no lo has visto , te lo puedo decir, si hicieras algo así , estaría bien. , Como siempre muchísima gracias
@adanmq7 ай бұрын
hola. Claro, pasame el link y veo si puedo darle una vuelta de tuerca. Gracias.
@possefede6 ай бұрын
Buenisimo Adan! Como siempre eternamente agradecido a tus aportes, gracias a vos crecemos todos. ComfyUI es excelente e interesante, lo voy a empezar a usar. El de personas seria genial
@avicap177 ай бұрын
De verdad ayuda mucho toda esta información muchas gracias q esto nunca termine
@pacoalmansa7 ай бұрын
Muchas, muchas gracias por el tutorial Adan, esta versión de Stable diffusion me requerirá prestar más atención porque la interface es menos intuitiva, pero la voy a instalar y me meto en ella. El tema de substituir personas es interesante, ya tengo ganas de ver el nuevo tutorial. Tus tutoriales facilitan un montón meterse en materias que a priori parecen mucho más complejas.
@lean21887 ай бұрын
un video increible, siempre agradecido por que compartes tu conomiento, saludos
@AbelBustos-eu8ti25 күн бұрын
Hola Adán, ya se echan de menos mas videos como este...podrías recomendar los mejores checkpoints para arquitectura e interiorismo??
@borjapiles54077 ай бұрын
Genial contenido Adán. Se me ocurren un par de aplicaciones que podrían ser interesantes para Archviz: - Creación de texturas realistas y de calidad en todos sus canales (albero, bump , displacement, roughness, etc) a partir de una imagen de referencia de baja calidad, como ocurre muchas veces con los clientes. - Escalado de imágenes a muy alta resolución sin necesidad de renderizarlas a dicho tamaño. ¿Crees que sería interesante investigar estas dos vias?
@manolomaru7 ай бұрын
+1 por Confyui. Muchísimas gracias por el vídeo bro! ✨👌🙂👍✨
@octaviososa7137 ай бұрын
Excelente. Muchas gracias por el aporte
@jorgeg68747 ай бұрын
Muchas gracias Adán por este tutorial. Está espectacular! En mi caso me gustaría mucho ver cómo aplicar img to video con parámetros de texto o con selección de áreas específicas del render para intentar añadir movimiento a ciertas zonas u objetos concretos. Por ejemplo para ver cómo se mueven unas cortinas, o árboles y hojas movidas por el viento. Quizás no es algo que se vaya a aplicar en un flujo de trabajo diario pero sería interesante tener la posibilidad de hacerlo!
@mariobravo27577 ай бұрын
Eres grande . ahora con AI. exelente trabajo introduccion a la IA que tanto esta a la ,alza. bien explicado nunca mejor gracias
@arqbolognesi6 ай бұрын
muchas gracias Adan por este tutorial, ojala que el proximo sea para poder hacer inpaint en ConfyUI
@georgeneverland8967 ай бұрын
Gracias Adan seguiré la serie con mucho interés!! Es muy raro encontrar contenido para archviz
@rodimar11117 ай бұрын
Muy interesante Adan, gracias, esperando ese video de sustitucion de personas!! gracias otra vez
@dvesco6 ай бұрын
xuapeti Adán, gracias nuevamente. Esperando el siguiente !
@lucascompagnucci6 ай бұрын
Muchas gracias por compartir el conocicmiento, son tantos conceptos que ya lo vi como 4 veces al video jaja, me dedico a la visualizacion Arquitectonica hace 10 años y estoy tratando de no quedarme retrasado en las nuevas herramientas. Para proximos videos, creo que si que seria util que muetres como podemos modificar sectores del renders pintando mascaras o usando las propias sacadas de vray, puede ser muy util no solo cambiar las personas, si o tambien seleccionar los cielos y hacer otra busqueda, igual que para agregar detalles en los entornos. Tambien estaria muy bueno si dictas algun curso online en tu escuela ya que yo esoty en argentina, hace unos años realice el de Rail clone el cual estuvo muy bueno. Saludos
@greckoist6 ай бұрын
porfavor mas tutoriales sobre reemplazo de mezcla de elementos
@salvadorperez4666Ай бұрын
Muchas gracias !! Todo los detalles, el como explicas, no solo en este video, si no en cualquier video se nota el cariño que tienes por este mundo. En relacion a una duda que tengo sobre el video, al inicio comentas si tenemos checkpoint para ambas IA, el modificar el archivo quitando el .example, pero aunque lo modifico, no soy capaz de conseguir que me detecte los checkpoint que tengo en la otra carpeta. Que habria que hacer exactamente ? Gracias por todo ! Saludos !
@Gustavo_Daniel_Pintos7 ай бұрын
Excelente aporte, muchas gracias
@Brujah19887 ай бұрын
Adán, estuve mirando para integrar SUPIR y CCSR al workflow pero se me hace inmanejable lo lento que va, por ahi es algo que te interesa investigar! Tengo 128GB y una 4090.
@marcoantonionunezcosinga78286 ай бұрын
Gracias. Siempre hay que rescaldarlo y aumentarle mas peso a la imagen ? no es posible corregir los errores sin aumentar tanto el peso de la imagen?.
@ibaitxo77777777 ай бұрын
Acabo de llegar a tu canal. Gracias! Eres de gran ayuda, nuevo suscriptor!
@marceltrzeinsky50487 ай бұрын
Excelente tu contenido, de verdad es invaluable y me encantaría ver como poder mejorar las personas en las imágenes con IA
@marcossala7967 ай бұрын
Hola al pasarme el json me sale el siguiente eror "When loading the graph, the following node types were not found: BNK_CLIPTextEncodeAdvanced" y no se como solucionarlo,intente buscar el nodo para instalarlo pero no me sale...alguien me puede ayudar?Gracias
@adanmq7 ай бұрын
Tienes la lista completa de todos los nodos en la descripción. Miraré aver que le pasa.
@quiques107 ай бұрын
Tuve el mismo problema y por ello no pudo usar la configuracion del arhivo json@@adanmq Gracias por el video
@TheNeriaf6 ай бұрын
@@quiques10 Tienes que instalar antes los nodos, si no, te sale ese error. Por alguna razón no deja cargar el .json e instalarlos posteriormente.
@alejopedregoza99617 ай бұрын
Cuando quiero insertar tu workflow me arroja el cartel de missing models pero no me da la opcion para que me busque automaticamente los missing :(
@adanmq7 ай бұрын
Que raro, trata de instalarlos a mano, en la descripcion tienes todos.
@nestordealmeida73953 ай бұрын
Adan eres lo maximo , mis respetos
@GregorioFlores-i3s6 ай бұрын
otra joyaaaa, muchas gracias por el enorme aporte a la comunidad
@seang43225 ай бұрын
Hola Adán muchas gracias por compartir tus conocimientos, he buscado info sobre IA para ArchViz y tus vídeos son de los más esclarecedores, como siempre. Al final del vídeo nos preguntas por dónde pensamos que podrías continuar: sería interesante que a partir de un modelo 3D básico, incluso sin texturas, explorar ciertas posibilidades de materialidad y forma con cierto grado de control y un resultado fotorrealista. Esto sería claro para un momento inicial del proceso de diseño, y no al final cuando ya tendríamos el render hecho. Un saludo!
@adanmq5 ай бұрын
Ahora publicare algunos de 3D y luego retomaremos la serie de AI. Gracias!
@seang43225 ай бұрын
@@adanmq genial! Lo espero impaciente 😄
@ksrb167 ай бұрын
Excelente como siempre. Sería muy bueno saber como utilizar el material id para modificar cosas especificas ( si es que se puede) y la gestion de personas tanto añadir o hacerlas mas realisticas. Nuevamente gracias por el contedido y el tiempo!
@JuniorS.184 ай бұрын
Se puede instalar Comfiu en una Mac? Gracias!
@javar-draws6 ай бұрын
Buenas, he seguido el tutorial paso a paso y no se si a alguien también le pasa pero cuando hay superficies grandes, como paredes blancas, etc, se nota mucho el tileado en esas zonas (Se notan las porciones en las que SD divide la imagen con tiled diffusion). Hay algún parámetro que permita corregir este efecto?? Gracias, muy útil el tutorial!
@mauriziogastoni97797 ай бұрын
Really good explanation! I tried but I still find ultimate better in handling the tiles. For the first pass tiled diffuse worked quite well though
@celiaguillen73384 ай бұрын
Hola! cual dirias que son las diferencias entre comfyUI, stable diffusion y midjourney o cual recomendarías para empezar? veo que hay muchos programas, me gustaría aprender pero no se en cual centrarme :c muchas gracias!
@pabloacitores168525 күн бұрын
Muy interesante el tutorial, como siempre, muchas gracias por compartir todo este conocimiento y por estos tutoriales en profundidad, se aprecia muchisimo. Quería preguntarte si conoces algún canal en el que seguir ahondando en este tema de comfyui para visualización arquitectónica (ademas del tuyo, que ya he visto todos los tutoriales :) jeje). También quería hacerte una pregunta sobre el video porque yo no consigo sacar el nodo de apply controlnet sin que sea advanced y no se hasta que punto afecta en el resultado que tenga que meterle mas inputs que en el que usas tu en el video. Y por último (espero no estar abusando) quería preguntarte sobre la gestión de color para comfyui ya que veo que las saturaciones, contrastes etc de mi render original no se mantienen...Muchisimas gracias de antemano y otra vez por compartir todo este conocimiento con la comunidad. Yo te sigo desde hace 8 años y sigo sin encontrar un canal con la calidad de contenido que tiene el vuestro. Espero que sigas compartiendo con nosotros por mucho tiempo (sin presion, que sabemos que con schooling el ritmo del canal es un poco menor pero el valor sigue siendo altísimo). Un saludo. Pablo
@bagre99297 ай бұрын
Maravilloso!, muchas gracias. Con esta herramienta es posible lograr acciones similares a un relleno generativo? , si es así, sería interesante aprender cómo:)) saludos y de nuevo gracias!!!
@osmarbarriosromero13947 ай бұрын
ufffff exelente video, de lo mejor.
@gabrielefabbri54196 ай бұрын
Gracias Adan! esperamos el proximo!!!!!!
@atroxx10003 ай бұрын
Gracias por esta información, para mi esto es un poco complicado lo de nodos pero con tu explicación parece un poco más fácil, me gustaría ver si es posible como agregar lo que comentas personajes o modificaciones a la imagen, gracias nuevamente saludos..
@isaiasgnz55757 ай бұрын
Que crack, muchas gracias por toda tu ayuda, 10/10 el canal! -Me gustaría saber, como cambiar la iluminación de un render y en alta calidad -como combinar un chekponit con un lora, en donde el lora funcione para detallar aun mas el render
@andvfx7 ай бұрын
Excelente tutorial como siempre Adan! Un poco mas de comfyui, al igual crear videos? Crear transiciones organicas entre imagenes estaticas o incluso entre videos.
@josecabralcarl45227 ай бұрын
Excelente aporte
@MiguelRamos-du4gm7 ай бұрын
Excelente video Adán, muchas gracias x compartir tremendo conocimiento. En lo particular se me hace mas practico es metodo de nodos. Tengo solo un problema al instalar wlsh_nodes, me sale en rojo desde el manager y dice import failed, ya he tratado igual de forma manual instalarlo pero no me deja, sabes si hay que actualizar otra cosa o por que el error? Saludos.
@Stvan197 ай бұрын
Primero xD. Saludos Martin! Gracias
@adanmq7 ай бұрын
Jejejeje.Gracias y Saludos!
@catrieldelvalle47527 ай бұрын
Increíble como siempre Adán, me gustaría saber porque decides usar Comfy en vez de A1111?
@adanmq7 ай бұрын
Uso las 2, pero comfy permite hacer caso cualquier cosa mientras que a1111 está mucho más limitado. Ya iré poniendo ejemplos
@carlosmendoza2856Ай бұрын
excelente, pero ahora Apply controlNet no existe, es decir solo existe el modo advance y nme sale un mensaje "ControlNet' object has no attribute 'device". Será que tengo que instalar o actualizar controlnet? Gracias de antemano
@adanmqАй бұрын
Trata de mantener actualizado todo siempre, ya que el ecosistema de comfy se actualiza casi a diario. No pasa nada, usa el otro. Todo deberia funcionar similar. Hay mejores opciones fuera del default pero puede que las veamos en otro video.
@carlosmendoza2856Ай бұрын
@@adanmq Gracias Adan, pero he encontrado que el problema lo da tile diffusion porque lo desconecté y la imagen salió. ComfyUI lo instalé hoy pero ya tenía instalado stable diffusion desde hace tiempo siguiendo tus tuts. No se que mas hacer. Saludos
@PatriceTranquille6 ай бұрын
Thank you for sharing this great tutorial. Is it possible to upload your workflow as a PNG? I can't open the json file... Thank you very much.
@Heber-Work-Tffr7 ай бұрын
Excelente video! como siempre
@juansebastianvasquezlaiton45616 ай бұрын
Comparte el de personas Adan eres un genio ! Abrazo desde Colombia
@fernandomanuellopez99096 ай бұрын
Adan a que le veis mas futuro? ComfyUI o a Automatic1111?, pregunto ya que comentes que ves este mas versatil. Saludos
@alesibert7 ай бұрын
Adán, como siempre el topic y la calidad del contenido es excelente!. ¿Se podrá interpolar fotogramas de una animación con comfyui? Muchas gracias por compartir tu conocimiento.
@adanmq7 ай бұрын
Si se puede aunque es difícil tener consistencia entre frames hay algunas estrategias para lograrlo
@amantium7 ай бұрын
Gracias por el video. Sabes si existe alguna metodología para generar personas realistas en un render que carece de ellas? Es decir, quitarnos el trabajo de ambientar con gente 2d o 3d en un render de un centro comercial por ejemplo. Es algo en lo que llevo pensando desde que se inicio el boom de la IA, pero supongo que habría que entregar un modelo específicamente para ello. Gracias.
@aguavirtual5 ай бұрын
Muchas gracias por el video sumamente explicativo!!!. Lo que no entiendo es para que existe esa porquerìa del prompt negativo si no hace caso, no le vale lo que escribas ahì, lo dibuja igual una y otra vez, exactamente igual a cuando desconectas todo ese clip de prompt negativo.
@adanmq5 ай бұрын
Hola. Pues en realidad el promp negativo es extremadamente importante en SD. Deberias ver grandes diferencias entre usarlo o no. Es posible que tengas muy poco denoise o que controlnet este muy fuerte.
@eleonorafrosini47866 ай бұрын
Great tutorial, better flow than Stable Diffusion, the nodes are great. I would be very interested if you explained how to work with people. With a view to deciding how to work in the future, do you think it's better to learn how to use ComfyUI or to switch to Magnific AI (despite the very high cost)?
@unnaturalsound6 ай бұрын
Hay alguna forma de tener un azulejo por ejemplo de 20x20 cm y proyectarlo en una pared con la IA? seria un buen video
@adanmq6 ай бұрын
Umm, supongo que podría intentarse, pero dudo que si buscas precisión la AI sea la respuesta, para eso puedes usar Nuke y compo en 3D, se puede hacer desde hace casi 20 años sin AI. La AI es mas para cosas donde no buscas precisión.
@MrManuMP3 күн бұрын
Hola! He repetido el proceso al dedillo y al llegar al KSampler me salta el siguiente error: 'ControlNet' object has no attribute 'preprocess_image', alguien sabe qué puede estar ocurriendo y cual es la solución? Gracias! Edit: Conseguí solucionarlo, el error residía en un conflicto entre los nodos y el propio ComfyUI, ya que estos estaban en la última versión y Comfy no. Para actualizar tuve que irme a la carpeta 'update', y ejecutar el 'update_comfyui_stable', espero que sea de utilidad si a alguien le ocurre algo parecido.
@Abelbus3 ай бұрын
Hola Adán , crees que se podría conseguir un flujo de trabajo similar a este pero con el nuevo modelo de Flux.1 ? Con lo potente que es este modelo los resultados podrían ser espectaculares ...yo he intentado replicar este flujo pero no lo he conseguido
@adanmq3 ай бұрын
@@Abelbus de momento tiene limitaciones pero algo se puede hacer. En mi opinión flux no es necesariamente mejor que sd. Tiene sus pros pero también muchos contras. Lo cubriré a la vuelta de vacaciones xD
@catrieldelvalle47523 ай бұрын
Adan como siempre muchas gracias, quisiera preguntarte de que forma conviene usar ComfyUI, si con la gpu (tengo una rtx 3060 de 12gb) o con la cpu (tengo 64 de ram y un Ryzen 9 5900x). Gracias como siempre
@adanmq3 ай бұрын
Con la GPU siempre. Con la CPU será extremadamente lento.
@mauroangst7 ай бұрын
Ha venido genial el tutorial para entender com funciona ComfyUI y la integración de ControlNet y el Tiling, pero al ver el resultado final parece haber perdido resolución y detalle. En el tutorial anterior con automatic1111 sí se veía una mejora, más similar a los resultados que se obtienen con Krea o Magnific. Puede ser que te hayas confundido de lado al indicar cuál es la versión original y la re-generada? No me termina de quedar claro qué parametros debería ajustar para obtener mejores resultados, podrías aclarar qué sucedió? Gracias!
@adanmq7 ай бұрын
Usaste Tiled DIffusion? Si es así, los resultados deberían er muy similares. Guarda tu imagen en el disco y revisa que la resolución sea la correcta.
@DionisioChannel4 ай бұрын
Hola se puede utilizar con un procesador y gpu amd ? muchas gracias
@adanmq4 ай бұрын
lo ideal es usar una GPU, por CPU va extremadamente lento.
@DionisioChannel4 ай бұрын
@@adanmq no sé si tenés un problema de comprensión tu respuesta no tiene nada que ver con la pregunta
@DaniloAcevedo7 ай бұрын
Muchas gracias hemano, podria pedrte un favor necesito hacer una entrevista con un experto en IA, me serviria mucho tu opinion
@jaimelee32227 ай бұрын
al arrastrar el .json no carga en la interfaz 🤔
@RicardoMarin-pz3qd6 ай бұрын
idem
@nono_palace5 ай бұрын
No me esta funcionando el .json al cargar me dice: When loading the graph, the following node types were not found: BNK_CLIPTextEncodeAdvanced Upscale by Factor with Model (WLSH) Image Comparer (rgthree) JWFloat Alguna idea de por que?
@adanmq5 ай бұрын
Te faltan esos nodos por instalar. Instalalos antes. Los links están en la descripción
@malvarender39877 ай бұрын
Cuando sea grande quiero ser como vos xD Gracias adan, ayudas mucho
@tipitoto7 ай бұрын
Genial video, pero me gustaria ver un ejemplo de algo que se pueda hacer en Comfy y que no se pueda hacer en A1111, ya que estoy familiarizado con A1111 y me cuesta pasar a Comfy
@adanmq7 ай бұрын
Es una cuestión de workflow y versatilidad en la mayoría de ocasiones. Si te encuentras más comodo con A1111 usala.
@riaanvanjaarsveldt9227 ай бұрын
Why is English auto captions disabled?
@adanmq7 ай бұрын
I dont know. Let me check It.
@riaanvanjaarsveldt9227 ай бұрын
@adanmq thank you! There are so many of your videos that I would like to follow but english subtitles are never possible.
@adanmq7 ай бұрын
@@riaanvanjaarsveldt922 i dont know why is this the case i Will check if i can enable It.
@riaanvanjaarsveldt9227 ай бұрын
@@adanmq It's fixed, thank you!
@2602patricio7 ай бұрын
Hola adan, gracias por el video, me ha sido de mucha ayuda. Tengo una consulta, que sucede en el caso de que no tenga nvidia y deba hacer los procesos por el procesador? tengo entendido q solo funciona con nvidia, no amd. Gracias!
@adanmq7 ай бұрын
Pues con la CPU no he probado las velocidades de procesado pero supongo que será muy lento en comparación. Pruébalo y nos cuentas.
@2602patricio7 ай бұрын
@@adanmq Lo probe, lamentablemente es como dices, muy lento. Le llevo a la pc aproximadamente 12 hs realizar la tarea :(
@rommelgonzalez43757 ай бұрын
COmo siempe increible! Yo tengo las ganas, el presupuesto y el sueño de inscribirme en tu escuela pero no puedo mudarme a Madrid :( (Soy de Mexico) Supongo que por la naturaleza del curso y lo profesional no es posible hacerlo actualmente de manera online, pero en algun punto crees que lo sea?
@adanmq7 ай бұрын
Hola!, Seria muy difícil transferir la experiencia presencial a formato on-line. Pero si encontramos una formula que nos permita hacerlo, podríamos considerar hacerlo on-line. No obstante estamos pensando en expandir nuestra oferta de cursos on-line un poco más de lo que ya tenemos.
@JonasKaczalla7 ай бұрын
Ya me gustó antes de verlo. Increíble tu contenido Adán. (Perdón por el mal español.)
@sejoban7 ай бұрын
Adan y su amor a los nodos jejej, Saludos
@adanmq7 ай бұрын
Jejejeje. Es que son muy prácticos.
@andersone3677 ай бұрын
Muchas gracias por este contenido Adán, ¿sabes como puedo usar estas inteligencia artificiales sin tener una RTX?
@adanmq7 ай бұрын
Se que puedes ejecutar las UI en remoto en plataformas cloud, pero no se decirte mucho más.
@3dvideopresentationmk327 ай бұрын
How to buy this course? Curso Avanzado de BluePrints in Unreal Engine 5
@israelantunez76127 ай бұрын
Muchas gracias
@cesaramezcua27402 ай бұрын
que caracteristicas tiene tu pc ya que carga muy rapido
@adanmq2 ай бұрын
Es por la GPU, tengo una 4090. No es imprescindible pero ayuda.
@pellizzongiulio7 ай бұрын
Hey Adam, Would be great if you could do a tutorial on Inpating people for archviz!
@fvdmaster3 ай бұрын
gracias
@henrycanon92953 ай бұрын
hola. una vez mas gracias por tu contenido y dedicación, como muchos valoro y admiro tu contenido. Al igual que con SD me sale un erros. en este caso "KSampler [WinError 233] No hay ningún proceso en el otro extremo de la canalización" no he logrado darle solución. trabaja por un par de imagenes text to image y al cabo de unos cuantos intentos deja de funcionar. SOY UN COMPLETO NOVATO. alguien que me pueda ayudar por favor
@catrieldelvalle47523 ай бұрын
Adam, antes que nada, como siempre gracias por el gran contenido, calidad y claridad asegurada. Por otro lado quiero preguntar, si alguien de la comunidad sabe, como poder realizar el "mejoramiento" de varias imagenes, tengo para realizar el procedimiento para varias imagenes, pero quiero evitar estar haciendolo imagen por imagen de forma manual. Alguien sabe?
@adanmq3 ай бұрын
En la pestaña img2img hay una pestaña que se llama Batch. Aqui puedes cargar una ruta y hacer el proceso en todas las imágenes una tras otra.
@catrieldelvalle47523 ай бұрын
@@adanmq uff necesitaria un tuto sobre esto, última consulta, esto se puede hacer en comfyui y/o A111?
@adanmq3 ай бұрын
@@catrieldelvalle4752 SI, se puede hacer en ambas plataformas. SOlo tienes que introducir la ruta y darle a render.
@MasterMaker-m6q6 ай бұрын
bueno el comercial
@DIYbitt7 ай бұрын
Lo suyo es tener LORAS entrenados con determinados estilos arquitectónicos, jardines, etc. Para tener resultados más consistentes, jugando más con el ruido incluso con distintas perspectivas del mismo modelo.
@Franciscomp707 ай бұрын
6:36 esa forma de pronunciar muy peculiar
@JM-nw2pb7 ай бұрын
Pagate 10 dolares al mes en cualquier ai online y te ahorras el dolor de cabeza
@adanmq7 ай бұрын
Pago casi todas y aun así prefiero usar ComfyUI ya que tienes control a diferencia de lo que ocurre en las típicas plataformas on-line.
@architect-cc7 ай бұрын
un sistema similar de AI por nodos ya esta funcionado con blender por si lo quiere estudiar, con menos complicaciones ya que es un add-ons, y tiene algo de documentación.