ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
謝謝你提供優良的知識,請你喝咖啡!
Danke!
感謝!
想說明一下 4:30 的兩個版本的差異是使用微軟 .Net Framework(舊框架) 或 .Net Core(新框架) 進行編譯而非線上版或離線版,1.7.1 版後就僅有 .Net Core 版本大部分電腦沒有內建 .Net Core 執行環境所以會需要到微軟官網另外下載安裝
謝謝你的說明看來我誤會他了!
這篇真的品質很高,非常感謝你們的努力。 雖然跟國外TH-camr訓練的參數不同,但是我也會拿來測試看看
超參數每個人的設定都會有差異,但是這次分享的這組我自己用起來效果很好!!
感謝你們的教學影片, 可以完成我的紳士夢想, 製作雨宮天LoRA
感謝提供優質分享
非常感谢, 品质非常高
打標刪標工具BooruDatasetTagManager安裝有MacOS版
mac不確定
參數有點多...如果想寫cloab哪邊有資訊嗎
感謝分享訓練數據 非常實用呢 請問之後會有影片中說的微調大模型的教學影片? 很想了解了解呢 謝謝您
沒有預期要做這個,其實微調的方法很普通,訓練DB或者lora都可以,訓練lora只需要再合併回去模型裡就好了。
想請問按設定走到最後,但一直無法訓練,出現AssertionError: network for Text Encoder cannot be trained with caching Text Encoder outputs / Text Encoderの出力をキャ ッシュしながらText Encoderのネットワークを学習することはできません請問可能有什麼問題呢?
到DC問吧應該是勾了不需要的選項
請問SD1.5的LORA..也能用這個方法嗎??
可以照理說這些規則是通用的,只有一些參數設定
請問有人成功在colab free 那個上使用SDXL 1.0 用1024x1024訓練成功? 謝謝
很不错
請問一下現在kohya ss能正常動作的版本是那個,最近更新完都會有triton的問題
triton從以前到現在都有他不是問題請忽略
感谢分享,非常有用!
教程一如既往的高品质
講閣一下,用macbook pro的話也能訓練LORA嗎?
其實kohya是有支援的,以前聽說訓練速度非常慢現在因為沒有使用者回饋我也不太清楚了QQ
請問有人出現 returned non-zero exit status 1的狀況嗎?
returned non-zero exit status 1的原因很多貼到DC去問吧'
@@JackEllie 好的 感謝
专业👍
我用4090 训练1.5 是半小时 同样参数训练XL是10个小时
之後用fp8訓練應該可以快上不少
請問SDXL 1.5訓練要怎麼訓練? 不管事選內建的還是自己找的模型都會無法訓練Lora。
上DC討論吧!
您好,我想請問一下您的動漫人物是如何製作的,我有圖和聲音,用什麼軟件可以合成?sadtalker麼?
sadtalker合成動漫會有恐怖谷的感覺,都是使用AE對嘴而已或者用L2D
請問一下為甚麼我沒有deprecated這選項?謝謝!
改版了QQ最新的版本改到lora訓練下方
請問我照著影片步驟安裝了Tagger,也重新啟動了webUI。但是沒出現標籤該怎麼辦...?
到DC群貼終端畫面吧這,原因要排查才知道
@@JackEllie 好嘚感謝回覆
loha的network dim只要8就够了?这和我训练lora时用的128差好远啊,loha这么好用吗?
其實LoRa跟LoHa學習的方向會有點不同,事實上一般LoRa也不需要用到128就是了
@@JackEllie感谢解答,我以前都是训练768x768的,我还以为图片大点Network也需要跟着调大。我这里还有一个发现暂时还搞不明白怎么回事,我尝试了Prodigy optimizer来训练我本来在1.5走的很好的模型(当初就留下了1024的图片),发现训练出来的LoHa一点效果也没有,从tensorboard上看学习率是超低的1e-9。我改成Adamw8bit和较高的学习率后反而就正常了,是我的资料集出了什么问题才导致Prodigy给出的学习率过低吗(话说这家伙吃好多VRAM,我Batch Size只能开到4而已)?P/S:不知道是SDXL厉害还是LoHa厉害,我训练出来的模型泛用性相当高,什么白发啦盔甲啦很容易就画出来了,以前还需要把权重降低到0.85左右才行。
感谢说的很详细,学习到很多
如果我训练到一半,发现速度太慢,可以停下修改参数,然后继续上次的训练吗
之前有BUG需要修改code現在不清楚維修好了沒,訓練的各種疑難建議你到DC群問
好喔....終於真人版了~打 飯島愛 哈哈....
哈哈哈,不知不覺還是做了XD
请问 训练出的sdxl lora 为什么使用无效果呢,出图里也没有显示使用。
要看終端有沒有顯示錯誤才知道喔
請問自己訓練出人物之後, 其他網友打觸發詞能觸發嗎
他要裝你訓練出來的lora
根据教程训练出来的lora模型,使用xyz进行模型检测,我分别检测了5个模型和0.2~0.8的权重,最后出来的图却全部都长得一模一样就很奇怪。而我单独加载单个lora并没有出现这种情况,难道是目前不支持xyz吗?
應該是XYZ圖打錯了什麼
支持的下面有一个随机种子让他保持-1生成的图片就不一样了
目前12GB 有1024X1024 LOHA 成功例子嗎?
batch_size往下調整直到可以使用就好
❤
请问为什么我按照这个方式训练出的真人模型,生产图片的时候会出现二次元风格的人物呢?
SDXL本來就有這個狀況有可能學習的還不夠,你也可以嘗試加入Realistic
@@JackEllie 非常感谢!我先在您的频道学习一下,有问题的话再向您请教
我之前也發生過,一直找不到原因,後來出差到外地,就把步數直接調到16萬,出差回家後,比原來的圖還要逼真畫質非常清楚。提示詞隨便打都能出圖。應該與步數有相當大的關聯。
@@qoot5784wow,非常感谢!
有細節的教程,必竟我在NSFW找最厲害的培訓收費教學,沒你們教學細分非常有細節NSFW 的培訓人非常少,加上他們都是失敗過多次得出的參數設定,邏輯上的教程水平非常一般!
哈哈感謝厚愛~這是綜合我們討論群的大家跟我自己一些心得整理出的詳細資料,應該還蠻萬用的
有外國YT說如果訓練人像,可以不用提示字
我有試過但效果不好
原來這樣, 明白 @@JackEllie
對於沒碰過的還是太難理解了...
那你應該要去社群討論XD
我第一眼看見居然是想到橋本有菜。。。
代表我至少橋本訓練進去了(誤
插眼
怪了....照抄功課結果出來的模型怎麼樣套用都沒有改變....重做了3.4次都一樣....完全找不到原因>
那要上DC來問比較好,我猜讀取出錯了
教程的速度太快了,在減慢3分之2的速度,要停頓,要有指向的語助詞,不要被中國大陸給帶錯方向,中國大陸他們只知道炫耀自己,不在於學生聽得到多少。而中國人民也是裝逼的認為懂,結果是什麼也沒有聽懂。這一節的講解非常可惜,講課是不能連續一直講,每一段句的時候要停止3秒鐘,換下一句時以每一個文字後在停頓2秒鐘。不然聽的人根本聽不到,人類的耳朵沒有那麼力害可以吸收速度馬上轉進腦部思考,根本辦不到,給你建議,希望能幫助到其他真正想學的人。
你可以使用视频降速功能来实现。其实玩过训练的人,很多都知道,只是看几个主要的关键数据
@@AOBONA 與降速無關,上課時講到重點的時候需要讓聽課的人腦部吸收一下,人類的大腦吸收能力沒有那麼快,我做老師30多年了,我講課的速度非常慢,我的認為需要給學生能真正吸收,真正聽進腦部,比如,去年我非常喜歡聽網路的小說,我聽到非常痛苦,速度超級快,根本腦部還來不及吸收已經講到第30章以後了,後來我實在受不了就自己製作小說,把速度調整到正常的語速後,整個youtube的小說主播就通通的速度降下為正常速度。快速的念文章不知道是誰帶風向,人類長期聽這樣的音波腦部會受傷。況且,聽的人是要來學習,講話速度那麼快要幹什麼,講慢一點讓聽的人舒服沒壓力的聽,不是很好嗎?兩全齊美。
有的人喜欢慢语速,但是有的人就是希望讲快一点甚至直接讲重点就好,做视频本来就是要面向大众,众口难调的,每个人的接受程度和知识储备都不一样,不要简单的用你自己的认知强加给所有人。不然视频平台干吗要给你一个倍速和慢速的功能呢?@@qoot5784
完全不會啊 我都開2倍加速看...還是只是你老了而已
@@江介龍 哈哈,可能是我老了,我需要女人來變年輕。
.........蛤?
謝謝你提供優良的知識,請你喝咖啡!
Danke!
感謝!
想說明一下 4:30 的兩個版本的差異
是使用微軟 .Net Framework(舊框架) 或 .Net Core(新框架) 進行編譯
而非線上版或離線版,1.7.1 版後就僅有 .Net Core 版本
大部分電腦沒有內建 .Net Core 執行環境
所以會需要到微軟官網另外下載安裝
謝謝你的說明看來我誤會他了!
這篇真的品質很高,非常感謝你們的努力。 雖然跟國外TH-camr訓練的參數不同,但是我也會拿來測試看看
超參數每個人的設定都會有差異,但是這次分享的這組我自己用起來效果很好!!
感謝你們的教學影片, 可以完成我的紳士夢想, 製作雨宮天LoRA
感謝提供優質分享
非常感谢, 品质非常高
打標刪標工具BooruDatasetTagManager安裝有MacOS版
mac不確定
參數有點多...
如果想寫cloab哪邊有資訊嗎
感謝分享訓練數據 非常實用呢 請問之後會有影片中說的微調大模型的教學影片? 很想了解了解呢 謝謝您
沒有預期要做這個,其實微調的方法很普通,訓練DB或者lora都可以,訓練lora只需要再合併回去模型裡就好了。
想請問按設定走到最後,但一直無法訓練,出現
AssertionError: network for Text Encoder cannot be trained with caching Text Encoder outputs / Text Encoderの出力をキャ ッシュしながらText Encoderのネットワークを学習することはできません
請問可能有什麼問題呢?
到DC問吧應該是勾了不需要的選項
請問SD1.5的LORA..也能用這個方法嗎??
可以照理說這些規則是通用的,只有一些參數設定
請問有人成功在colab free 那個上使用SDXL 1.0 用1024x1024訓練成功? 謝謝
很不错
請問一下現在kohya ss能正常動作的版本是那個,最近更新完都會有triton的問題
triton從以前到現在都有他不是問題請忽略
感谢分享,非常有用!
教程一如既往的高品质
講閣一下,用macbook pro的話也能訓練LORA嗎?
其實kohya是有支援的,以前聽說訓練速度非常慢現在因為沒有使用者回饋我也不太清楚了QQ
請問有人出現 returned non-zero exit status 1的狀況嗎?
returned non-zero exit status 1的原因很多貼到DC去問吧'
@@JackEllie 好的 感謝
专业👍
我用4090 训练1.5 是半小时 同样参数训练XL是10个小时
之後用fp8訓練應該可以快上不少
請問SDXL 1.5訓練要怎麼訓練? 不管事選內建的還是自己找的模型都會無法訓練Lora。
上DC討論吧!
您好,我想請問一下您的動漫人物是如何製作的,我有圖和聲音,用什麼軟件可以合成?sadtalker麼?
sadtalker合成動漫會有恐怖谷的感覺,都是使用AE對嘴而已或者用L2D
請問一下為甚麼我沒有deprecated這選項?謝謝!
改版了QQ最新的版本改到lora訓練下方
請問我照著影片步驟安裝了Tagger,也重新啟動了webUI。但是沒出現標籤該怎麼辦...?
到DC群貼終端畫面吧這,原因要排查才知道
@@JackEllie 好嘚感謝回覆
loha的network dim只要8就够了?这和我训练lora时用的128差好远啊,loha这么好用吗?
其實LoRa跟LoHa學習的方向會有點不同,事實上一般LoRa也不需要用到128就是了
@@JackEllie感谢解答,我以前都是训练768x768的,我还以为图片大点Network也需要跟着调大。
我这里还有一个发现暂时还搞不明白怎么回事,我尝试了Prodigy optimizer来训练我本来在1.5走的很好的模型(当初就留下了1024的图片),发现训练出来的LoHa一点效果也没有,从tensorboard上看学习率是超低的1e-9。我改成Adamw8bit和较高的学习率后反而就正常了,是我的资料集出了什么问题才导致Prodigy给出的学习率过低吗(话说这家伙吃好多VRAM,我Batch Size只能开到4而已)?
P/S:不知道是SDXL厉害还是LoHa厉害,我训练出来的模型泛用性相当高,什么白发啦盔甲啦很容易就画出来了,以前还需要把权重降低到0.85左右才行。
感谢说的很详细,学习到很多
如果我训练到一半,发现速度太慢,可以停下修改参数,然后继续上次的训练吗
之前有BUG需要修改code現在不清楚維修好了沒,訓練的各種疑難建議你到DC群問
好喔....
終於真人版了~
打 飯島愛 哈哈....
哈哈哈,不知不覺還是做了XD
请问 训练出的sdxl lora 为什么使用无效果呢,出图里也没有显示使用。
要看終端有沒有顯示錯誤才知道喔
請問自己訓練出人物之後, 其他網友打觸發詞能觸發嗎
他要裝你訓練出來的lora
根据教程训练出来的lora模型,使用xyz进行模型检测,我分别检测了5个模型和0.2~0.8的权重,最后出来的图却全部都长得一模一样就很奇怪。
而我单独加载单个lora并没有出现这种情况,难道是目前不支持xyz吗?
應該是XYZ圖打錯了什麼
支持的下面有一个随机种子让他保持-1生成的图片就不一样了
目前12GB 有1024X1024 LOHA 成功例子嗎?
batch_size往下調整直到可以使用就好
❤
请问为什么我按照这个方式训练出的真人模型,生产图片的时候会出现二次元风格的人物呢?
SDXL本來就有這個狀況有可能學習的還不夠,你也可以嘗試加入Realistic
@@JackEllie 非常感谢!我先在您的频道学习一下,有问题的话再向您请教
我之前也發生過,一直找不到原因,後來出差到外地,就把步數直接調到16萬,出差回家後,比原來的圖還要逼真畫質非常清楚。提示詞隨便打都能出圖。應該與步數有相當大的關聯。
@@qoot5784wow,非常感谢!
有細節的教程,必竟我在NSFW找最厲害的培訓收費教學,沒你們教學細分非常有細節
NSFW 的培訓人非常少,加上他們都是失敗過多次得出的參數設定,邏輯上的教程水平非常一般!
哈哈感謝厚愛~這是綜合我們討論群的大家跟我自己一些心得整理出的詳細資料,應該還蠻萬用的
有外國YT說如果訓練人像,可以不用提示字
我有試過但效果不好
原來這樣, 明白 @@JackEllie
對於沒碰過的還是太難理解了...
那你應該要去社群討論XD
我第一眼看見居然是想到橋本有菜。。。
代表我至少橋本訓練進去了(誤
插眼
怪了....照抄功課結果出來的模型怎麼樣套用都沒有改變....重做了3.4次都一樣....完全找不到原因>
那要上DC來問比較好,我猜讀取出錯了
教程的速度太快了,在減慢3分之2的速度,要停頓,要有指向的語助詞,不要被中國大陸給帶錯方向,中國大陸他們只知道炫耀自己,不在於學生聽得到多少。而中國人民也是裝逼的認為懂,結果是什麼也沒有聽懂。這一節的講解非常可惜,講課是不能連續一直講,每一段句的時候要停止3秒鐘,換下一句時以每一個文字後在停頓2秒鐘。不然聽的人根本聽不到,人類的耳朵沒有那麼力害可以吸收速度馬上轉進腦部思考,根本辦不到,給你建議,希望能幫助到其他真正想學的人。
你可以使用视频降速功能来实现。其实玩过训练的人,很多都知道,只是看几个主要的关键数据
@@AOBONA 與降速無關,上課時講到重點的時候需要讓聽課的人腦部吸收一下,人類的大腦吸收能力沒有那麼快,我做老師30多年了,我講課的速度非常慢,我的認為需要給學生能真正吸收,真正聽進腦部,比如,去年我非常喜歡聽網路的小說,我聽到非常痛苦,速度超級快,根本腦部還來不及吸收已經講到第30章以後了,後來我實在受不了就自己製作小說,把速度調整到正常的語速後,整個youtube的小說主播就通通的速度降下為正常速度。快速的念文章不知道是誰帶風向,人類長期聽這樣的音波腦部會受傷。況且,聽的人是要來學習,講話速度那麼快要幹什麼,講慢一點讓聽的人舒服沒壓力的聽,不是很好嗎?兩全齊美。
有的人喜欢慢语速,但是有的人就是希望讲快一点甚至直接讲重点就好,做视频本来就是要面向大众,众口难调的,每个人的接受程度和知识储备都不一样,不要简单的用你自己的认知强加给所有人。不然视频平台干吗要给你一个倍速和慢速的功能呢?@@qoot5784
完全不會啊 我都開2倍加速看...還是只是你老了而已
@@江介龍 哈哈,可能是我老了,我需要女人來變年輕。
.........蛤?