gran video! se te extrañaba. Sin duda sería un gran avance, ya que FLUX sigue siendo demandante hasta para GPUs de gama alta. Quisiera saber si has hecho un video antes sobre los checkpoints y LoRAs DMD2? Ya que no he encontrado mucha información y parece interesante. Saludos crack!
Muchas gracias maestro por la info, como siempre. Qué ganas de que en breve se pueda aplicar a la generación de video, para crear videos fluidos y de alta calidad en código abierto, sin tener que recurrir a las plataformas sacapastas.
No es tan facil, no es un mero checkpoint, es una nueva tecnologia, nuevos tipos de redes neuronales, puede que sea facil de implementar en entrenamientos de lora o puede que no sea facil hacerlo, tendremos que esperar, ghracias por comentar!!
Practicamente los modelos checkpoint de flux pasarian de pesar menos que un Checkpoint de SDXL sin que esta pierda su calidad y precision en los prompts, pues viendo tambien las imagenes incluso llegan tener una mejor calidad y mejora en generar las imagenes con tan pocos recursos, es un avance realmente impresionante en tan poco tiempo.
Que bueno empiza bien el año. @sartana decia que si eras Santa Claus ... por que tardabas en mucho en publicar video. Yo creo que eras Melchor jejejejej
Finalmente hiciste alguna prueba con SANA? Según he podido ver el modelo corre bien en Comfyui y es tan rapido y potente como prometian. Que nos puedes decir al respecto? Gracias
Si, he realizado pruebas, la velocidad muy bien, la calidad muy mala, parece que van a implementar un nuevo vae para mejorar la calidad, por el momento no merece la pena.
Hola, ¿puedes subir algun tuto de como hacer un dataset de imagenes para hacer mi propio lora? estoy muy bloqueado he investigado y ningun video me ayuda en nada y por escrito no entiendo, el tema de angulos,backgrounds,poses... Se me esta haciendo cuesta arriba esto..
Aqui tienes un tutorial detallado th-cam.com/video/qpA_vv5Ilzk/w-d-xo.htmlsi=xkQYD99v1LiZSvbI&t=735 y aqui algunos consejos para mejorar th-cam.com/video/GHCKcJuVPv4/w-d-xo.html
@@Academia_SD En ese video ya tienes las fotos hechas... Ya vi ese video anoche, voy a ver el segundo, gracias igualmente, se me esta haciendo muy dificil esto jaja
@@sorryyourenotawinner2506 Para entrenar un lora debes tener las fotos, tu lo que quieres es generar imagenes con consistencia de personaje, para eso necesitas por ejemplo PulID th-cam.com/video/bl27NBr668I/w-d-xo.html no estoy seguro de que funcione en la versión actual de Forge, creo que solo funciona en A1111
Si claro, el problema es que los datos de visualizaciones hacen decrecer el canal, parece que aún no hay suficiente publico interesado, hay varios capitulos del curso de comfy que aunque funcionan bien a largo plazo a corto plazo según criterios de TH-cam mi canal se invisibiliza y lo muestra menos haciendo menguar el canal, algo que para un canal pequeño es un desastre, he pensado en hacerlo exclusivo para mienbros ya que esa opción no afecta al crecimiento del canal, cosas del algoritmo que te obliga a mantener audiencia o mejorarla, en cualquier caso es muy probable dada la situación de A1111 y Forge que retome con más fuerza ComfyUI, sin embargo en el Discord de este canal hay una comunidad activa de Comfy, si tienes algún feedback será bienvenido. Gracias por comentar!!
@@XavierCliment Si el abanico de posibilidades es impresionante, poder acceder a modelos que solo es posible con GPUs profesionales es realmente asombroso, veremos si se hace realidad
Todavia no se sabe, es de las primeras implementaciones de esta nueva tecnologia, pero probablemente se podra implementar agregando tal vez el nuevo kernel desarrollado para esta mejora, gracias por comentar!!
Pues ojala se mantenga la calidad. Es verdad que es importante el tiempo de generacion pero siempre le he dado mas importancia a obtener un buen resultado esperando un poco mas de tiempo.
Si te fijas con detalle en los ejemplos, la calidad en alguno pocos de los ejemplos es ligeramente inferior, en la mayoria sin embargo la calidad es incluso superior, incluso con una mejor interpretación del prompt, parece por lo que indica el paper que no se trata de "cherry picking" y que el testeo ha sido exhaustivo, pero hasta que no lo podamos probar no saldremos de dudas, gracias por comentar y feliz año!!
No sabemos si esta tecnologia sera adaptable al entrenamiento de Loras, pero probablemente si lo sea y de ser así, evidentemente será mucho más rápido. Gracias por comentar!!
Esto podría permitir un entrenamiento completo en cualquier gpu comercial de mas de 12G de vram, y la creación de loras en gpus con mebos de 8G de vram. Sin duda es una muy buena noticia, pronto habrá una versión flux de pony
Hay que esperar a ver como se desarrolla, es una nueva tecnologia, antes solo existia en papers, este es el primer desarrollo, pero promete darnos muchas alegrias, gracias por comentar!!
gran video! se te extrañaba. Sin duda sería un gran avance, ya que FLUX sigue siendo demandante hasta para GPUs de gama alta.
Quisiera saber si has hecho un video antes sobre los checkpoints y LoRAs DMD2? Ya que no he encontrado mucha información y parece interesante.
Saludos crack!
Gracias!! No he realizdo ningun video sobre dmd2 porque no ha tenido una gran implantación, quizas proximamente, gracias por el apoyo!!
Hey! Qué buena noticia amigo! Tu siempre adelantandonos el futuro con tanta generosidad, gracias y saludos!
Un placer!! Gracias por comentar!!
motivador! se te extrañaba amigo, gracias por la data siempre
Ya recuperado de salud y amenazando con sacar más videos😁 , gracias por comentar!!
Muchas gracias maestro por la info, como siempre. Qué ganas de que en breve se pueda aplicar a la generación de video, para crear videos fluidos y de alta calidad en código abierto, sin tener que recurrir a las plataformas sacapastas.
Un placer!! Gracias por comentar!!
Qué bueno maestro se te echaba de menos. Feliz año!
Gracias, feliz año!! Gracias por comentar!!
Grandísima noticia, ya se te empezaba a echar de menos con alguna de estas esperanzadoras novedades, mil gracias
Además de una gripe que no se marchaba he tenido muchos asuntos por resolver, ademas de las Navidades, gracias por comentar y espero publicar pronto!!
magnífico, a la espera de ese video para ver los resultados
Cuando pueda hincarle el diente sacaré el video tras las pruebas oportunas, gracias por comentar!!
Muchas Gracias por la info ; ya estamos ansiosos por probarlo.
Un placer!! Gracias por comentar!!
Looking forward to your videos and thanks again for all you do forge!
It's a pleasure, thank you for your nice comments!!
Gracias por la info, ahora solo resta esperar para crear nuevos loras con este checkpoint 😊
No es tan facil, no es un mero checkpoint, es una nueva tecnologia, nuevos tipos de redes neuronales, puede que sea facil de implementar en entrenamientos de lora o puede que no sea facil hacerlo, tendremos que esperar, ghracias por comentar!!
vaya hojala salga pronto para probarlo, gracias por el dato
No hay fecha, solo aparece "Coming soon", gracias por comentar!!
que emocionante!!
Siiii!! Gracias por comentar!!
Feliz año!
Igualmente!!, gracias por comentar!!
Excelente, muchas gracias!
Un placer, gracias por comentar!!
Genial explicación como siempre, a ver cuándo lo podemos probar y ver si es verdad. Muchas gracias!
Que velocidad!! Esperaremos a ver como rinde. Gracias por comentar!!
Esto se va poner bueno!
Siiiiii!! Gracias por comentar!!
Practicamente los modelos checkpoint de flux pasarian de pesar menos que un Checkpoint de SDXL sin que esta pierda su calidad y precision en los prompts, pues viendo tambien las imagenes incluso llegan tener una mejor calidad y mejora en generar las imagenes con tan pocos recursos, es un avance realmente impresionante en tan poco tiempo.
Si que lo es, los checkpoints pesados se pueden volver accesibles, videos incluidos, una gran noticia sin duda, gracias por comentar!!
Que bueno empiza bien el año. @sartana decia que si eras Santa Claus ... por que tardabas en mucho en publicar video. Yo creo que eras Melchor jejejejej
jajaja, bueno gran parte de culpa la ha tenido una gripe impertinente, gracias crack por el apoyo continuo!!
Wow, impresionante la bajada de potencia computacional. ¿Ya esta disponible esto? O hay alguna fecha de lanzamiento??? Necesito probarlooo
No hay fecha, solo un escueto "Comming soon", gracias por comentar!!
Veremos lo que nos traen las nuevas redes neuronales Gracias por la info!
Un placer!! Gracias por comentar!!
Sin duda lo espero con ganas estoy harta de esperar 2 minutos por imagen generada a 800 pixeles.
Pues si, veremos cuanto tardan en sacarlo y adaptarlo, gracias por comentar!!
Finalmente hiciste alguna prueba con SANA? Según he podido ver el modelo corre bien en Comfyui y es tan rapido y potente como prometian. Que nos puedes decir al respecto? Gracias
Si, he realizado pruebas, la velocidad muy bien, la calidad muy mala, parece que van a implementar un nuevo vae para mejorar la calidad, por el momento no merece la pena.
Excelente noticia
Si que lo es, gracias por comentar!!
Buen video. Que placa de video recomiendas como minimo para usar stable difusion??
La respuesta es facil, la que puedas permitirte que tenga más VRam y que sea NVidia, series 30xx, 40xx ó 50xx, gracias por comentar!!
Hola, ¿puedes subir algun tuto de como hacer un dataset de imagenes para hacer mi propio lora? estoy muy bloqueado he investigado y ningun video me ayuda en nada y por escrito no entiendo, el tema de angulos,backgrounds,poses... Se me esta haciendo cuesta arriba esto..
Aqui tienes un tutorial detallado th-cam.com/video/qpA_vv5Ilzk/w-d-xo.htmlsi=xkQYD99v1LiZSvbI&t=735 y aqui algunos consejos para mejorar th-cam.com/video/GHCKcJuVPv4/w-d-xo.html
@@Academia_SD En ese video ya tienes las fotos hechas... Ya vi ese video anoche, voy a ver el segundo, gracias igualmente, se me esta haciendo muy dificil esto jaja
@@sorryyourenotawinner2506 Para entrenar un lora debes tener las fotos, tu lo que quieres es generar imagenes con consistencia de personaje, para eso necesitas por ejemplo PulID th-cam.com/video/bl27NBr668I/w-d-xo.html no estoy seguro de que funcione en la versión actual de Forge, creo que solo funciona en A1111
Y esto también servirá para entrenar loras?
Por el momento no sabemos nada sobre eso, pero es bastante probable que asi sea, gracias por comentar!!
Has pensado en meterte de lleno a ConfiUI? Creo que tu manera de explicar serviría mucho al público hispano
Si claro, el problema es que los datos de visualizaciones hacen decrecer el canal, parece que aún no hay suficiente publico interesado, hay varios capitulos del curso de comfy que aunque funcionan bien a largo plazo a corto plazo según criterios de TH-cam mi canal se invisibiliza y lo muestra menos haciendo menguar el canal, algo que para un canal pequeño es un desastre, he pensado en hacerlo exclusivo para mienbros ya que esa opción no afecta al crecimiento del canal, cosas del algoritmo que te obliga a mantener audiencia o mejorarla, en cualquier caso es muy probable dada la situación de A1111 y Forge que retome con más fuerza ComfyUI, sin embargo en el Discord de este canal hay una comunidad activa de Comfy, si tienes algún feedback será bienvenido. Gracias por comentar!!
👍👍👍🙏
Gracias por comentar!!
Pero esto tb permitiria el poder convertir enormes modelos q pueden salir de más de 80GB y reducirlos a 8GB, no?
80gb serian aproximadamente 11gb de almacenamiento y 15,6Gb de inferencia
@@Academia_SD fantástico con una de 16GB VRAM ya se podria, y un modelo de 80GB reducido deberia ser ya algo brutal
@@XavierCliment Si el abanico de posibilidades es impresionante, poder acceder a modelos que solo es posible con GPUs profesionales es realmente asombroso, veremos si se hace realidad
Que loco, esto también reducirá el tiempo de espera para entrenar tus propios loras localmente?
Todavia no se sabe, es de las primeras implementaciones de esta nueva tecnologia, pero probablemente se podra implementar agregando tal vez el nuevo kernel desarrollado para esta mejora, gracias por comentar!!
Empieza interesante el 2025 para la generación de imagenes.
Han gastado muchas balas para fin de 2024, pero ahora parece que volveran con fuerza, gracias por comentar!!
Pues ojala se mantenga la calidad. Es verdad que es importante el tiempo de generacion pero siempre le he dado mas importancia a obtener un buen resultado esperando un poco mas de tiempo.
Si te fijas con detalle en los ejemplos, la calidad en alguno pocos de los ejemplos es ligeramente inferior, en la mayoria sin embargo la calidad es incluso superior, incluso con una mejor interpretación del prompt, parece por lo que indica el paper que no se trata de "cherry picking" y que el testeo ha sido exhaustivo, pero hasta que no lo podamos probar no saldremos de dudas, gracias por comentar y feliz año!!
@@Academia_SD veremos, ademas ahora hay loras que ayudan a mejorar las imagenes. FEliz Año y gracias por tus aportes!
menos que xl ? reemplazaria por fin los pony xd o los harian mas accecibles a pasarse a flux
Cierto, la transición a Flux para equipos bajos-medios será mucho más operativa, gracias por comentar!!
Facilitará el entrenamiento de loras haciendolo más rápido? es una buena noticia para flux que es lentisimo.
No sabemos si esta tecnologia sera adaptable al entrenamiento de Loras, pero probablemente si lo sea y de ser así, evidentemente será mucho más rápido. Gracias por comentar!!
Esto podría permitir un entrenamiento completo en cualquier gpu comercial de mas de 12G de vram, y la creación de loras en gpus con mebos de 8G de vram. Sin duda es una muy buena noticia, pronto habrá una versión flux de pony
Hay que esperar a ver como se desarrolla, es una nueva tecnologia, antes solo existia en papers, este es el primer desarrollo, pero promete darnos muchas alegrias, gracias por comentar!!
no me gusta el acabado de la piel en flux, todos iguales
Prueba los loras que recomiendo en este video th-cam.com/video/7qqUF32g9Sw/w-d-xo.html y luego me dices, gracias por comentar!!
flux se ve falso
th-cam.com/video/7qqUF32g9Sw/w-d-xo.html