ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
感謝新功能教學, 我發現用 Tile 單純放大功能在某些模型上好像需要降低重繪幅度到0.3以下, 才不會有過度提升細節的狀況, 例如: 大顆壽司
有些大模型,確實需要拉低重繪幅度,或是提高取樣步驟,我甚至遇到圖片整個靈異現象的,至少Chilloutmix可以照著影片方式走來得到高清圖。
我的CFG一樣保持7,改到15會出鬼圖重繪幅度目前是抓0.3~0.4
感謝教學~這個真的很好用.還能比原圖增加更多細節!👍
感謝教學~!這個真的很實用,搭配tile VAE,Low VRAM也能出高清大圖!!!
最近也是玩ai繪圖玩很狂,感謝你們的分享!😁😄❤
我用秋葉的V4整合包,模型放置位置要改為AI資料夾\extensions\sd-webui-controlnet\models,yaml也必須有不然會跳錯(同樣是ControlNet最新版)
我在放大真人圖片的時候用影片給的設定,出來的圖片效果很差。取樣器DPM++ SDE KARRASCFG 15重繪幅度0.5Seed -1Controlnet預處理器和模型是tile終極SD放大倍率2演算法試了resrgan,swinir,4x-ultrasharp類型選了linear和chess
上來discord討論看看吧0.0
實際沒有預期中理想, 但多一個選擇也不錯, 謝謝
還有還有,想請教拉伸、裁剪、填充、潛在變數放大四者之間有何分別?謝謝
前三個你直接調整應該就可以感受到差異了,最後一個潛在變數就是圖生圖的高解析度修復
@@JackEllie 我剛剛正在測試,發現有一個問題無法解決:我的原圖是512 x 768,用tile + SD放大1.5倍、再用Open Pose + Soft Edge遮罩固定手形,第一次放大成功,但第二次放大就開始出現問題,手指開始變形,原來的Soft Edge遮罩似乎沒效果,即使我現在將Open Pose跟Soft Edge遮罩也等比放大至768 x 1152,但手指還是會歪(第二次放大才出現此問題),求教,感謝!
非常實用👍 艾粒很可愛❤
看來我的批量生產模糊肉塊有救了!!順便期待詳細介紹 openpose❤❤
点赞了!很感谢教程,要是可以的话,希望可以讲一期segment anything 和groundingdino 的下载和使用(针对于stable diffusion的安装),这个貌似不错哦
東西太多要研究了我會去看一感謝
@@JackEllie 幸苦了,要记得适当休息哟👍
試過一開始看超清楚的而且和原圖有一些不一樣更棒,但仔細一看有一些像手都變形,這個應該比較適合簡單的圖片重新繪
手的變形在放大的過程中是很難免的,不過修復的方法很多。
很棒~ 研究中~~~
主播,最近在玩stable diffussion發現有人會這樣下召喚術:__looking__,__expression____posture__:standingstanding\......(後續還有只是省略)__looking__:looking_at_viewer\......(後續還有只是省略)可以請教主播這是在幹嘛嗎?看起來很像程式碼的自訂義function的概念,但完全不知道這些自訂義裡面可以放甚麼
__looking__是萬用字元阿,在這篇有提過th-cam.com/video/ZDuCCt1RFoo/w-d-xo.html 你可以去看
看不太懂最後一個功能,請問是否黑色的部份是想調整的色調、白色的部份是想添加的物件輪廓?假設想把色調變紅,是否把圖中的黑色部份改為紅色就可以?萬分感謝您們的教學,真的獲益良多!
這個部分可以當成一個明暗調整的功能,tile會重現給他的任何顏色,所以你說的沒錯,換成其他顏色也可以
想請問杰克艾米麗,每次只要我在筆電上打開Stable Diffuaion的本地終端,家人的蘋果手機都會說WiFi會突然無法使用沒訊號,即使我的筆電改成連手機分享的網路再開啟終端也還是一樣,請問我該如何解決這個問題呢?😢😭
聽起來是網路環境的問題耶~有點難幫忙QQ
@@JackEllie 好的感謝。不過後來我發現如果沒有連網路,也能用離線的方式在筆電使用Stable Diffusion,這樣就不會影響到Wifi網速了,但是這樣就沒辦法使用--share開啟手機版連結了QQ
原本以為使用4x-UltraSharp算法,再到附加功能去使用4x-UltraSharp放大已經是終極,才過一天就完全被推翻,快到我跟不上啊!
请问 第二种修复·增加细节,提示词应该怎么搞
我基本上不調整
杰克的虎年吉祥物還是原版比較有霸氣。
你是第一個站在原版的人QQ
@@JackEllie 我就擅自認定QQ是改動噴淚吧XD
這個放大方式確實幾乎保留了原圖模樣,可惜無法批量處理,但還是很棒,且速度蠻快
其實有批量功能耶!!但是我沒有測試過也還不確定怎麼用
所有controlnet都能夠批量處, 記住不要放任何圖便可
@@xyzDist79 找到方式了,本以為萬用字元不適合用,後來發現把萬用字元的提詞部分砍掉就好,原來圖生圖有資料夾的批次方式,漲知識了
感謝教學,但想請教一個初學者問題,為什麼有些checkpoint在同樣提詞下,在(600*800、768*1024)和800*1200的物件細節數量表現會差很多?但很奇怪的是,用tile去放大600*800變成768*1024,細節數量卻變得跟800*1200很接近了...
AI是用像素去作畫的,所以太小的圖片會沒辦法畫出足夠的細節,而tile模型任務本身就是為了提高畫面細節,所以照理說你可以在一樣的尺寸上獲得最好的細節。
不同的checkpoint都各自有適合的圖像解析度,有些像素太高太低會一團亂,有些LORA介紹都會有建議的解析度,個人經驗最好長寬都設在512以上,1000以下,800左右最穩定,出圖速度快,看到滿意的再用放大即可。
另外想請問預處理器使用resample時,是否需要按爆炸符號執行,然後再用preview as input?感謝!
爆炸符號不按也沒關係喔
你好,没用啊,controlnet Tile 起不到任何作用,完全是图生图本身在控制,模糊的照片修复不了,求教,谢谢
模糊的照片是真實的照片還是你畫的圖片?我建議你上DC討論,這不是一兩句能解答的問題
想問一下stable diffusion重新啟動之後突然文本反轉只讀得到easynegative(在這之前C網站下載不少文本反轉)ulzzang-6500-v1.1.bin跟很多反轉PT檔案都讀不到能問問這狀況是怎麼了嗎
在防毒裡面把AI資料夾設定成除外看看,再不然就要上discord貼上來看看了
你好,請問在不改變提詞及插件、軟體的狀態下,顯示卡的等級會影響生產圖片的畫質細膩度嗎?謝謝。
我有聽過高階顯卡會提高細緻度的說法,但事實上群組裡的使用者覺得非常不明顯
請問預處理器 沒有那個 TILE RESAMPLE 怎麼處理
更新你的controlnet版本
但是 512x768,無法將768調到3072,另外我的沒有 controlnet unit 0 controlnet unit 1 controlnet unit 2 的選項,controlnet版本是相同的。
controlnet unit 0 controlnet unit 1 controlnet unit 2選項要到設定裡面調出來。至於尺寸我不太懂你的意思。
@@JackEllie 在圖生圖 寬和高 最高只能拉到 2048,我的圖是 512x768,無法像 512 X 512 調成4倍
您好!使用了上述的方法 真的能更有效的製作大圖,很感謝您的分享!但我時不時會發生VRAM錯誤的問題,出現VRAM不夠的錯誤報告,但去檢查後發現vram根本沒吃滿,12GB裡只用到了5~9GB,為何會發生呢?
VRAM會有一個瞬間高峰撞到了就會停止,平常沒用滿是正常的
這種瞬間高峰的情況是因為哪項功能而發生的?目前全部的設置都是照著影片提到的第三點SD放大
❤❤❤
請問放大真人大頭照會變成恐怖異形是需要改別的設定嗎?
要給完整的參數才有辦法回答你這個問題,上DC貼上你的圖吧
請教一下更新contralnet之後預處理器選tile_resample 模型選項那邊沒有對應的contral_v11fle_sd15_tile 上網也找不到下載的地方 請問大大是在哪裡生出來的 謝謝
我下方說明的地方有官方的載點你進去看一下
看到了 謝謝大大!! 等等來試試效果
請問指令碼中的"Ultimate SD upscale" 是怎麼產生呢? 我的版本只有SD upscale
影片不是有提及嗎?你也可以到擴充裡面找。或者我影片中提到的之前的影片,有更詳細的介紹
@@JackEllie 之前忘了從extension裡面安裝, 感謝
不好意思Stable Diffusion下載教學那邊來的 請問下載時出現下載失敗該怎麼辦
到discord貼上來附上你的發生過程還有安裝環境喔
我按更新只能更新到ControlNet v1.1.106 1.1.106和1.1.116有差嗎?
按下更新後要重新啟動終端喔,最好都往新版更新上去因為有些bug會修復
從哪兒看版本壓?
如果你的ControlNet上面沒有寫版本就代表是舊版的去更新吧
請問一下,升級controlNET 1.1 (Torch2.0)後佔用的顯示卡記憶體大幅增加,有什麼優化的方法嗎?我是3060TI 8G更新後(512*768)大概高解析修正2.2倍就是極限,也做不了局部修復了用tile想再優化連1.1倍都沒辦法,更別提4K了...Tried to allocate 2.38 GiB (GPU 0; 8.00 GiB total capacity; 5.37 GiB already allocated; 180.06 MiB free; 5.71 GiB reserved in total by PyTorch)
你有勾選低Vram模式嗎?還有更新有可能會把--xformers優化命令移除建議去看一下,可以的話還是上discord問問我有看到也會回覆付你,記得貼上你的終端畫面跟webui-user的優化命令。
测试过了,真实图片没用
不會阿0.0我用真人照片是有效的
杰克艾米立,你用的是4090吗,我12g用2048 2048跑不了
只要打開了tile VAE多少vram都無所謂0.0
發現出來的圖都很暗 應該是需要vae吧 請問應該放哪個資料夾
這篇提到的方法比較方便你看一下,th-cam.com/video/ZDuCCt1RFoo/w-d-xo.html
對,用一般的圖生圖都正常,但是用control net的tile放大出來的就會像是沒使用vae
感謝新功能教學, 我發現用 Tile 單純放大功能在某些模型上好像需要降低重繪幅度到0.3以下, 才不會有過度提升細節的狀況, 例如: 大顆壽司
有些大模型,確實需要拉低重繪幅度,或是提高取樣步驟,我甚至遇到圖片整個靈異現象的,
至少Chilloutmix可以照著影片方式走來得到高清圖。
我的CFG一樣保持7,改到15會出鬼圖
重繪幅度目前是抓0.3~0.4
感謝教學~這個真的很好用.還能比原圖增加更多細節!👍
感謝教學~!這個真的很實用,搭配tile VAE,Low VRAM也能出高清大圖!!!
最近也是玩ai繪圖玩很狂,感謝你們的分享!😁😄❤
我用秋葉的V4整合包,模型放置位置要改為AI資料夾\extensions\sd-webui-controlnet\models,yaml也必須有不然會跳錯(同樣是ControlNet最新版)
我在放大真人圖片的時候用影片給的設定,出來的圖片效果很差。
取樣器DPM++ SDE KARRAS
CFG 15
重繪幅度0.5
Seed -1
Controlnet預處理器和模型是tile
終極SD放大倍率2
演算法試了resrgan,swinir,4x-ultrasharp
類型選了linear和chess
上來discord討論看看吧0.0
實際沒有預期中理想, 但多一個選擇也不錯, 謝謝
還有還有,想請教拉伸、裁剪、填充、潛在變數放大四者之間有何分別?謝謝
前三個你直接調整應該就可以感受到差異了,最後一個潛在變數就是圖生圖的高解析度修復
@@JackEllie 我剛剛正在測試,發現有一個問題無法解決:我的原圖是512 x 768,用tile + SD放大1.5倍、再用Open Pose + Soft Edge遮罩固定手形,第一次放大成功,但第二次放大就開始出現問題,手指開始變形,原來的Soft Edge遮罩似乎沒效果,即使我現在將Open Pose跟Soft Edge遮罩也等比放大至768 x 1152,但手指還是會歪(第二次放大才出現此問題),求教,感謝!
非常實用👍 艾粒很可愛❤
看來我的批量生產模糊肉塊有救了!!
順便期待詳細介紹 openpose❤❤
点赞了!很感谢教程,要是可以的话,希望可以讲一期segment anything 和groundingdino 的下载和使用(针对于stable diffusion的安装),这个貌似不错哦
東西太多要研究了我會去看一感謝
@@JackEllie 幸苦了,要记得适当休息哟👍
試過一開始看超清楚的而且和原圖有一些不一樣更棒,但仔細一看有一些像手都變形,這個應該比較適合簡單的圖片重新繪
手的變形在放大的過程中是很難免的,不過修復的方法很多。
很棒~ 研究中~~~
主播,最近在玩stable diffussion
發現有人會這樣下召喚術:__looking__,__expression__
__posture__:standing
standing\......(後續還有只是省略)
__looking__:looking_at_viewer\......(後續還有只是省略)
可以請教主播這是在幹嘛嗎?
看起來很像程式碼的自訂義function的概念,但完全不知道這些自訂義裡面可以放甚麼
__looking__是萬用字元阿,在這篇有提過th-cam.com/video/ZDuCCt1RFoo/w-d-xo.html 你可以去看
看不太懂最後一個功能,請問是否黑色的部份是想調整的色調、白色的部份是想添加的物件輪廓?假設想把色調變紅,是否把圖中的黑色部份改為紅色就可以?萬分感謝您們的教學,真的獲益良多!
這個部分可以當成一個明暗調整的功能,tile會重現給他的任何顏色,所以你說的沒錯,換成其他顏色也可以
想請問杰克艾米麗,每次只要我在筆電上打開Stable Diffuaion的本地終端,家人的蘋果手機都會說WiFi會突然無法使用沒訊號,即使我的筆電改成連手機分享的網路再開啟終端也還是一樣,請問我該如何解決這個問題呢?😢😭
聽起來是網路環境的問題耶~有點難幫忙QQ
@@JackEllie 好的感謝。不過後來我發現如果沒有連網路,也能用離線的方式在筆電使用Stable Diffusion,這樣就不會影響到Wifi網速了,但是這樣就沒辦法使用--share開啟手機版連結了QQ
原本以為使用4x-UltraSharp算法,再到附加功能去使用4x-UltraSharp放大已經是終極,才過一天就完全被推翻,快到我跟不上啊!
请问 第二种修复·增加细节,提示词应该怎么搞
我基本上不調整
杰克的虎年吉祥物還是原版比較有霸氣。
你是第一個站在原版的人QQ
@@JackEllie 我就擅自認定QQ是改動噴淚吧XD
這個放大方式確實幾乎保留了原圖模樣,可惜無法批量處理,但還是很棒,且速度蠻快
其實有批量功能耶!!但是我沒有測試過也還不確定怎麼用
所有controlnet都能夠批量處, 記住不要放任何圖便可
@@xyzDist79 找到方式了,本以為萬用字元不適合用,後來發現把萬用字元的提詞部分砍掉就好,
原來圖生圖有資料夾的批次方式,漲知識了
感謝教學,但想請教一個初學者問題,為什麼有些checkpoint在同樣提詞下,在(600*800、768*1024)和800*1200的物件細節數量表現會差很多?但很奇怪的是,用tile去放大600*800變成768*1024,細節數量卻變得跟800*1200很接近了...
AI是用像素去作畫的,所以太小的圖片會沒辦法畫出足夠的細節,而tile模型任務本身就是為了提高畫面細節,所以照理說你可以在一樣的尺寸上獲得最好的細節。
不同的checkpoint都各自有適合的圖像解析度,有些像素太高太低會一團亂,有些LORA介紹都會有建議的解析度,個人經驗最好長寬都設在512以上,1000以下,800左右最穩定,出圖速度快,看到滿意的再用放大即可。
另外想請問預處理器使用resample時,是否需要按爆炸符號執行,然後再用preview as input?感謝!
爆炸符號不按也沒關係喔
你好,没用啊,controlnet Tile 起不到任何作用,完全是图生图本身在控制,模糊的照片修复不了,求教,谢谢
模糊的照片是真實的照片還是你畫的圖片?我建議你上DC討論,這不是一兩句能解答的問題
想問一下stable diffusion重新啟動之後突然文本反轉只讀得到easynegative
(在這之前C網站下載不少文本反轉)
ulzzang-6500-v1.1.bin跟很多反轉PT檔案都讀不到
能問問這狀況是怎麼了嗎
在防毒裡面把AI資料夾設定成除外看看,再不然就要上discord貼上來看看了
你好,請問在不改變提詞及插件、軟體的狀態下,顯示卡的等級會影響生產圖片的畫質細膩度嗎?謝謝。
我有聽過高階顯卡會提高細緻度的說法,但事實上群組裡的使用者覺得非常不明顯
請問預處理器 沒有那個 TILE RESAMPLE 怎麼處理
更新你的controlnet版本
但是 512x768,無法將768調到3072,另外我的沒有 controlnet unit 0 controlnet unit 1 controlnet unit 2 的選項,controlnet版本是相同的。
controlnet unit 0 controlnet unit 1 controlnet unit 2選項要到設定裡面調出來。至於尺寸我不太懂你的意思。
@@JackEllie 在圖生圖 寬和高 最高只能拉到 2048,我的圖是 512x768,無法像 512 X 512 調成4倍
您好!使用了上述的方法 真的能更有效的製作大圖,很感謝您的分享!
但我時不時會發生VRAM錯誤的問題,出現VRAM不夠的錯誤報告,但去檢查後發現vram根本沒吃滿,12GB裡只用到了5~9GB,為何會發生呢?
VRAM會有一個瞬間高峰撞到了就會停止,平常沒用滿是正常的
這種瞬間高峰的情況是因為哪項功能而發生的?目前全部的設置都是照著影片提到的第三點SD放大
❤❤❤
請問放大真人大頭照會變成恐怖異形是需要改別的設定嗎?
要給完整的參數才有辦法回答你這個問題,上DC貼上你的圖吧
請教一下更新contralnet之後預處理器選tile_resample 模型選項那邊沒有對應的contral_v11fle_sd15_tile 上網也找不到下載的地方 請問大大是在哪裡生出來的 謝謝
我下方說明的地方有官方的載點你進去看一下
看到了 謝謝大大!! 等等來試試效果
請問指令碼中的"Ultimate SD upscale" 是怎麼產生呢? 我的版本只有SD upscale
影片不是有提及嗎?你也可以到擴充裡面找。或者我影片中提到的之前的影片,有更詳細的介紹
@@JackEllie 之前忘了從extension裡面安裝, 感謝
不好意思Stable Diffusion下載教學那邊來的 請問下載時出現下載失敗該怎麼辦
到discord貼上來附上你的發生過程還有安裝環境喔
我按更新只能更新到ControlNet v1.1.106 1.1.106和1.1.116有差嗎?
按下更新後要重新啟動終端喔,最好都往新版更新上去因為有些bug會修復
從哪兒看版本壓?
如果你的ControlNet上面沒有寫版本就代表是舊版的去更新吧
請問一下,升級controlNET 1.1 (Torch2.0)後佔用的顯示卡記憶體大幅增加,
有什麼優化的方法嗎?
我是3060TI 8G
更新後(512*768)大概高解析修正2.2倍就是極限,也做不了局部修復了
用tile想再優化連1.1倍都沒辦法,更別提4K了...
Tried to allocate 2.38 GiB (GPU 0; 8.00 GiB total capacity; 5.37 GiB already allocated; 180.06 MiB free; 5.71 GiB reserved in total by PyTorch)
你有勾選低Vram模式嗎?還有更新有可能會把--xformers優化命令移除建議去看一下,可以的話還是上discord問問我有看到也會回覆付你,記得貼上你的終端畫面跟webui-user的優化命令。
测试过了,真实图片没用
不會阿0.0我用真人照片是有效的
杰克艾米立,你用的是4090吗,我12g用2048 2048跑不了
只要打開了tile VAE多少vram都無所謂0.0
發現出來的圖都很暗 應該是需要vae吧 請問應該放哪個資料夾
這篇提到的方法比較方便你看一下,th-cam.com/video/ZDuCCt1RFoo/w-d-xo.html
對,用一般的圖生圖都正常,但是用control net的tile放大出來的就會像是沒使用vae