ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
很棒的說明,簡單易懂。有你真好~謝謝分享!
大佬的教程清晰易懂,感谢分享!
不客气呀,也多谢你们支持
最详细的FLUX教程,感谢大佬分享!
博主的教程很有帮助,谢谢😀
感謝妳的分享,對我幫助很大
感谢分享!
第一集完全是flux百科全書,又有第二集了趕緊來看過。技術有一段時間沈澱了,希望大大出一集flux controlnet的影片。
棒棒
谢谢,分享
不客气~😄
NF4 在 ComfyUI 中应用不佳,但是在他自己的 Forge 上应用确实理想,至少他解决了 t5xx 和 I-clip 在 SDwebUI 上应用问题,对于不习惯 ComfyUI 工作流的用户来讲,能用最简单的方式出最理性的图,NF4 功不可没。
是的,NF4和相关的都是ForgeUI作者参与的,在上面确实不错,而且她积极更新,方便了很多习惯了WebUI的人。我这边主要是从ComfyUI的角度来演示,ComfyOrg对GGUF支持得更多
你能用Flux生成图片后再转换成可控视频的工作流吗
FLux只是目前没有自己的相关视频配套模型,把用它生的图片丢到以往的视频流程里动起来,例如我最近发的PIA,都是没有问题的
@@SweetValberry 我是说直接用一套工作流,不用换工作流
@@SweetValberry 还想问一下,你的整合包能更新吗,整合包压缩文件里的controlnet文件是模型还是插件
@@SweetValberry 我是小白,不懂就问,您不会烦吧
@@AIST-fj4ig 跟賽博菩薩說聲"不好意思", "請"和"謝謝"很難嗎? 就打多幾個字的事兒
现实与插画混合(blended-realistic-illustration)链接失效
3080 10g跑bf16 55s / fp8 55s / Q4 45s,都用fp16 clip,沒感覺gguf甚麼優勢,Q5 10GB VRAM也不夠
能跑得起原版模型的当然是最好的,无论是fp8,NF4还是各种GGUF,都是压缩了模型数据的,有损失
降低门槛才是王道
请问内存的需求是要多大,我看你的内存是64GB的,我的16GB能跑吗😂
其实模型不是特别在意内存,但是在我感觉中,还是越大越好,16G可能有点吃紧~
@@SweetValberry 感谢解答
玩这些新的大模型都要升级电脑配置,懒得搞。然后我的疑问是为什么iPad Pro?iPad,m2芯片的怎么没有适配所谓的AI大模型?这么好的算力就拿来看剧。
现在主要是依赖于cuda,所以都是N卡才能很舒服的玩,很多低端N卡比很高级的A卡和苹果的效果都好,我有一台m2 pro的mac,可以用ComfyUI,只是配套的环境麻烦一些
@@SweetValberry 我的电脑还是10年前的集显。。现在手上有一台iPad Pro 2022 。电脑一年都开不了几次,寻思着换一台吧想搞个双网口的小主机,但又想玩各种大模型,纠结
😄😄
很棒的說明,簡單易懂。有你真好~謝謝分享!
大佬的教程清晰易懂,感谢分享!
不客气呀,也多谢你们支持
最详细的FLUX教程,感谢大佬分享!
博主的教程很有帮助,谢谢😀
感謝妳的分享,對我幫助很大
感谢分享!
第一集完全是flux百科全書,又有第二集了趕緊來看過。
技術有一段時間沈澱了,希望大大出一集flux controlnet的影片。
棒棒
谢谢,分享
不客气~😄
NF4 在 ComfyUI 中应用不佳,但是在他自己的 Forge 上应用确实理想,至少他解决了 t5xx 和 I-clip 在 SDwebUI 上应用问题,对于不习惯 ComfyUI 工作流的用户来讲,能用最简单的方式出最理性的图,NF4 功不可没。
是的,NF4和相关的都是ForgeUI作者参与的,在上面确实不错,而且她积极更新,方便了很多习惯了WebUI的人。我这边主要是从ComfyUI的角度来演示,ComfyOrg对GGUF支持得更多
你能用Flux生成图片后再转换成可控视频的工作流吗
FLux只是目前没有自己的相关视频配套模型,把用它生的图片丢到以往的视频流程里动起来,例如我最近发的PIA,都是没有问题的
@@SweetValberry 我是说直接用一套工作流,不用换工作流
@@SweetValberry 还想问一下,你的整合包能更新吗,整合包压缩文件里的controlnet文件是模型还是插件
@@SweetValberry 我是小白,不懂就问,您不会烦吧
@@AIST-fj4ig 跟賽博菩薩說聲"不好意思", "請"和"謝謝"很難嗎? 就打多幾個字的事兒
现实与插画混合(blended-realistic-illustration)链接失效
3080 10g跑bf16 55s / fp8 55s / Q4 45s,都用fp16 clip,沒感覺gguf甚麼優勢,Q5 10GB VRAM也不夠
能跑得起原版模型的当然是最好的,无论是fp8,NF4还是各种GGUF,都是压缩了模型数据的,有损失
降低门槛才是王道
请问内存的需求是要多大,我看你的内存是64GB的,我的16GB能跑吗😂
其实模型不是特别在意内存,但是在我感觉中,还是越大越好,16G可能有点吃紧~
@@SweetValberry 感谢解答
玩这些新的大模型都要升级电脑配置,懒得搞。然后我的疑问是为什么iPad Pro?iPad,m2芯片的怎么没有适配所谓的AI大模型?这么好的算力就拿来看剧。
现在主要是依赖于cuda,所以都是N卡才能很舒服的玩,很多低端N卡比很高级的A卡和苹果的效果都好,我有一台m2 pro的mac,可以用ComfyUI,只是配套的环境麻烦一些
@@SweetValberry 我的电脑还是10年前的集显。。现在手上有一台iPad Pro 2022 。电脑一年都开不了几次,寻思着换一台吧想搞个双网口的小主机,但又想玩各种大模型,纠结
😄😄