Merci pour ton honnêteté. Perso, c’est tout ce que je demandais. Tant pis si celui-là n’est pas encore bien, avec le temps, tu nous en présenteras un vraiment bon.
Salut, tout d'abord merci pour ta vidéo ^^ . Je l'ai testé : 32 go de RAM, RTX 4060 Ti 16 go VRAM, 25 mn pour 704x704 et 121 frames. Problème principal relevé, mis à part le temps de génération assez élevé, c'est les fluctuations de l'arrière-plan avec cet effet de vague. Le sujet dans l'ensemble est assez bien respecté en image2video, et je trouve qu'il colle mieux au prompt quand on retire le background pour ne donner que le sujet à animer au modèle... dur de faire beaucoup de test vue le temps de génération, mais impressionnant les progrès de ce que l'on peut faire en local maintenant même si on attend vite ses limites matérielles.
et hop, un like. Je trouve ce modèle vraiment très intéressant. j'ai fait quelques tests en 704x704 et 10 steps pour que ça ne me prenne pas trop de temps, mais ça reste assez long même sur une 4070TiS J'ai remarqué qu'il y avait beaucoup moins de ces effets de déchirement/morphs quand j'activais le node ModelSamplingContinuousEDM et montais la valeur sigma-min.
Merci Emmanuel, petite question comment fait on pour sauvegarder le résultat obtenu en format vidéo type mp4 ou gif car il n'y que l'option sauver l'image en PNG ou Webp. Avec ma 4090 24 vram et 64 go de ram ca ventile sévère niveau GPU mais je trouve le résultat pas inintéressant même si largement perfectible.encore merci sinon pour info 704 sur 1024 résultat en 15 mn
Bonjour,un grand merci pour la vidéo, J'ai une petite question concernant le dernier node, je visualise bien la preview en revenche je n'ai qu'une seul image sauvegardé, savez vous comment recupéré toute la suite d'images ?
Salut, merci pour la vidéo ! Quand tu parles de délestage automatique pour les petites cartes graphiques, est-ce que tu parles du noeud "VRAM Debug" avec ses options "empty cache"/gc_collect/unload_all_models ou d'autre chose ?
Je pense que cela se fait automatiquement maintenant. Un équilibre entre la Ram et la Vram (le délestage fait référence à une technique par laquelle ComfyUI gère l'utilisation de la VRAM en déplaçant dynamiquement des parties du modèle entre la VRAM et la RAM système pour permettre l'utilisation du modèle même quand la VRAM disponible est insuffisante)
@@aiandpixels merci et du coup , peut on rajouter un noeud pour générer un prompt détaillé directement à partir de l'image si oui lequel et comment l'intégrer dans le workflow (Florence2 par exemple)? Encore merci
Salut et merci pour ce travail de défrichage que tu fais pour nous. J'avoue être un peu déçu... Au tout début l'IA permettait d'obtenir des résultats incroyables en se concentrant uniquement sur la qualité des prompts. Là les résultats en vidéo semblent marquer le pas. Au regard des moyens techniques, du hardware a avoir, les modèles à télécharger, les workflows Comfyui à comprendre et intégrer.... J'avoue que je reste un peu sur ma faim pour le coup 😮
Merci pour ton honnêteté. Perso, c’est tout ce que je demandais. Tant pis si celui-là n’est pas encore bien, avec le temps, tu nous en présenteras un vraiment bon.
Ce n'est pas parce que je n'ai pas eu de bons résultat à mes premiers essais , qu'il n'est pas bon, c'est plutôt moi qui ne le suis pas ahah :)
Salut, tout d'abord merci pour ta vidéo ^^ . Je l'ai testé : 32 go de RAM, RTX 4060 Ti 16 go VRAM, 25 mn pour 704x704 et 121 frames. Problème principal relevé, mis à part le temps de génération assez élevé, c'est les fluctuations de l'arrière-plan avec cet effet de vague. Le sujet dans l'ensemble est assez bien respecté en image2video, et je trouve qu'il colle mieux au prompt quand on retire le background pour ne donner que le sujet à animer au modèle... dur de faire beaucoup de test vue le temps de génération, mais impressionnant les progrès de ce que l'on peut faire en local maintenant même si on attend vite ses limites matérielles.
Salut, avec plaisir !
Merci pour ton retour d'expérience.
Top video comme d'hab !! 👍
Merci beaucoup 😀
et hop, un like.
Je trouve ce modèle vraiment très intéressant.
j'ai fait quelques tests en 704x704 et 10 steps pour que ça ne me prenne pas trop de temps, mais ça reste assez long même sur une 4070TiS
J'ai remarqué qu'il y avait beaucoup moins de ces effets de déchirement/morphs quand j'activais le node ModelSamplingContinuousEDM et montais la valeur sigma-min.
Combiens de temps pour une génération a peut pres ? les 4070 ti elles ont 12 ou 16g ?
Merci pour ton retour d'expérience :)
Trop lent pour moi , mais merci Emmanuel pour la vidéo
Avec plaisir :)
Merci pour la vidéo ça m'a permis de le tester, il est bon mais trop long du coup je vais attendre son évolution
Avec plaisir, oui il est beaucoup plus long que certains modèle. LTX est bien plus rapide.
Merci Emmanuel, petite question comment fait on pour sauvegarder le résultat obtenu en format vidéo type mp4 ou gif car il n'y que l'option sauver l'image en PNG ou Webp. Avec ma 4090 24 vram et 64 go de ram ca ventile sévère niveau GPU mais je trouve le résultat pas inintéressant même si largement perfectible.encore merci sinon pour info 704 sur 1024 résultat en 15 mn
Bonjour, tu peux ajouter le nœud "Video Combine" à la fin pour sauvegarder en .mp4
Bonjour,un grand merci pour la vidéo, J'ai une petite question concernant le dernier node, je visualise bien la preview en revenche je n'ai qu'une seul image sauvegardé, savez vous comment recupéré toute la suite d'images ?
Bonjour, as tu essayé avec le nœud Video Combine ?
@@aiandpixels Hello, du coup oui j'ai utiliser le noeud video combine pour sortir les videos merci c'est top
Salut, merci pour la vidéo ! Quand tu parles de délestage automatique pour les petites cartes graphiques, est-ce que tu parles du noeud "VRAM Debug" avec ses options "empty cache"/gc_collect/unload_all_models ou d'autre chose ?
Je pense que cela se fait automatiquement maintenant. Un équilibre entre la Ram et la Vram (le délestage fait référence à une technique par laquelle ComfyUI gère l'utilisation de la VRAM en déplaçant dynamiquement des parties du modèle entre la VRAM et la RAM système pour permettre l'utilisation du modèle même quand la VRAM disponible est insuffisante)
peut-on rajouter un noeud type Video Combine VHS à la fin du workflow afin de pouvoir sauvegarder la vidéo ? Merci
Oui !
@@aiandpixels merci et du coup , peut on rajouter un noeud pour générer un prompt détaillé directement à partir de l'image si oui lequel et comment l'intégrer dans le workflow (Florence2 par exemple)? Encore merci
Testé sur une rtx4080 super donc 16 G, temps de traitement 20 mn, donc pas très convaincant pour l'instant , mais patientons.
Merci pour ton retour d'expérience. Oui attendons :)
Testé sur une RTX 4090 en 1024P, 25 minute pour sortir 4 second
la ou Hunyuan video : 720P : 10 minute a 15 Minute > 20 second a 30 second de vidéo .
Merci pour ton retour
Salut et merci pour ce travail de défrichage que tu fais pour nous.
J'avoue être un peu déçu...
Au tout début l'IA permettait d'obtenir des résultats incroyables en se concentrant uniquement sur la qualité des prompts.
Là les résultats en vidéo semblent marquer le pas.
Au regard des moyens techniques, du hardware a avoir, les modèles à télécharger, les workflows Comfyui à comprendre et intégrer....
J'avoue que je reste un peu sur ma faim pour le coup 😮