Stable Diffusion - LoRA
ฝัง
- เผยแพร่เมื่อ 16 มี.ค. 2023
- Portable LoRA ➜ github.com/serpotapov/Kohya_s...
► Boosty (эксклюзив) ➜ boosty.to/xpuct
► Telegram ➜ t.me/win10tweaker
► Discord ➜ / discord
🔥 Deliberate: deliberate.pro
🔥 Reliberate: huggingface.co/XpucT/Relibera...
🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
Плейлист Stable Diffusion: • Stable Diffusion
МОЯ ВЕРСИЯ Stable Diffusion: • Stable Diffusion Porta...
#StableDiffusion #LoRA #kohya_ss - วิทยาศาสตร์และเทคโนโลยี
*✓ НАИБОЛЕЕ АКТУАЛЬНАЯ ИНФОРМАЦИЯ ПО LORA СЕГОДНЯ В ЭТОМ ВИДЕО:*
boosty.to/lergeyseonov/posts/c29517db-ce64-4f3f-8144-8d70961e642e?share=post_link
спасибо, а всё же когда лучше использовать лору, эмбединг, гипернетворк или тренировку полноценной модели?
Ну, пора разводить девушек на 15-30 фото лица, а не эти ваши "нюдцы"
Абсолютное уважение за это видео. И за portable версию. Всё работает просто как часы, что для open source вообще и для экосистемы A1111 в особенности просто фантастика. Мало кто понимает, какой труд был проделан автором, чтобы все могли это поделать у себя дома.
Thanks for taking the time, I'll eventually get through the whole thing, but at the moment, this has been a helpful perspective of what a LoRA is.
Просмотрел все видео на х2, голова кажется нагрелась и сейчас начну стрелять лазерами из глаз. Зарядился зарядом Хачатура. И кажется люди теперь медленно разговаривают. Но реально круто, инфа топ, спасибо! 🎉
Других смотрю на х2 - это видео и другие на х1 и уже голова начинает кипеть) настолько погруженный автор в тему и такой концентрат сока дает))
Видео записано для коренных москвичей. Чтобы успевали понимать что к чему. Уральцы, например, сами по себе разговаривают и понимают быстро, примерно в 2 раза быстрее, чем обычно подбешивают москвичей. Уральцам лучше смотреть на скорости х2
Жаль нельзя два лайка поставить, спасибо за сборку и видео!
У кого не работает и ругается на [CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 8.00 GiB total capacity; 7.14 GiB already allocated; ] (как было у меня , видяха 1080 GTX) предлагаю сделать так:
1) протереть глаза и запускать трейн на вкладке Dreambooth LoRA =)
2) поставить Mixed/Saved precision : fp16/fp16,
3) optimizer на ADAMW,
4)лайк подписка Хачатуру
тоже на адам8 ошибку выдавало((( 1080Ti
такая же фигня на 1080ТI, поддерживаю на таких настройках работает
Ошибка на 3070 была. Теперь виснет на 0% на 1 шаге, если это типа такая скорость то тренировка 30 картинок будет буквально полгода длиться, не понимаю что не так настроено
@@orgax у меня вовсе даже тренить не начинает, пишет что не найден xformers.
это всё понятно, но он сказал, что будет всё говно и оно так и есть. тоже 1080ti
"...эпох, эпок - должно быть 1, иначе у вас будет ПОЛНЫЙ ЕПОК, если Вы выберете число больше..." 🤣спасибо за видео, на одном дыхании
Самое лучшее видео про обучение модели! Благодарю 🙏
Мега лайк! Спасибо большущее, за труды!
Если кто не понял что за папка такая "samples", которую типа надо удалять - не указывайте входную папку и выходную в одно и то же место и никакие samples удалять не придется. Ошибка из за того что во входной папке должны быть только папки для обучения, у которых в имени задано количество шагов, а в имени папке samples нет никакой цифры, отсюда ошибка. Если выходная папка будет другой то и samples будет создаваться там и не будет мешать обучению.
Спасибо, начало хоть что-то делать, но теперь ошибку CUDA out of memory даёт, не знаю почему, видюха 8гб
@@SimonsCatSE для начала нужно оставить только изображения 512*512, только batch size=1 и взять невысокий network rank типа 32 или меньше и Alpha (они вроде тоже влияют на память)
@@alexp2179 спасибо, буду пробовать
Огромнейшая благодарность за такой туториал. Всё получается на ура!)
Респект и уважуха! Спасибо за детальное описание! Очень круто! Это просто магия.
Вот и я добрался с работы до видосика!!! Ты как всегда Зажег!))))
Такой вопрос, а если нужно обучить лору на длинных фото (512х768), то насколько испортиться результат если изменить размер в настройках? Или в таких случаях нужно расстягивать каждое изображения в граф. редакторе до размеров 512х512?
Если весь сет будет из 512x768 и в дальнейшем генерация будет точно в таком же 512x768, то смело пишем в LoRA 512x768 - это то исключение, которое допустимо. Спасибо за вопрос.
@@XpucT правильно же, что если лора обучена на 512х512 то при генерации артов 512х768 с использованием этой лоры, качество лоры будет не таким? или вообще лучше генерить без нее и потом в инпеинте подставлять?
стараюсь писать комменты под каждым просмотренным видео - не от болтливости и желания засветиться - знаю, что это помогает продвигать весь контент на Ютюбе, а это важно - такие БЕСПЛАТНЫЕ видео мега полезны, нужны и образовательны, весьма часто более ценны, чем за деньги у псевдокоучей и балаболов
Ахаха, обожаю эти вставки с дисторшном
контент как всегда невероятно полезный, спасибо!
Каждый раз, когда вижу новое видео Хачатура, радуюсь как ребёнок новому мультику)
Наконец-то дождались, инструкция по LoRA! Спасибо что прислушиваешься к просьбам подписчиков, это неоценимо)
Божественный видос! Спасибо большое! Очень интересно побежал фоткать себя и друзей) Очень информативно и на самом деле коротко) Я смотрел на 1.5 всё очень понятно от и до конца. Спасибо!
Досмотрел. Кайф (со вставок - тащусь от души).
Для любителей «шоб с картинкою», типа меня, есть
2 способа (простой и совсем простой) добавить обложку для Lora:
1. Рядом с файлом, где находится тётя «Лора», кладете любую png картинку с таким же именем.
Пример: iloveYourmomyLora.png
2. Генерируете картинку, открываете вкладку с «Лорами» в UI. и наводите курсор на название «Лоры». Над ним появится надпись «replace preview”. Вот на нее и кликайте.
Дождался LORA. Услышал все что хотел. Спасибо.
Tremendous video, I love the cut through the BS style. I learned a tremendous amount from this video and in general all your videos. I need to translate and subtitle them but that even gives me more in depth information as I have the transcript as well :) Cheers XpucT!
Half of the translation will be just curses and butthurt 😂😂
It's boring to live on earth without knowing Russian language.😆
Шикарно. Благодарю вас
Для тех кто будет искать - куда кидать LoRA.json 7:30 минута. Мало-ли.
Так-то на видео виден путь. Но так будет полезней.
Спасибо за видео! Ждал от тебя эту тему)
И по поводу имени японца (осторожно, японист в чате): если это именно японец и у него так и написано Kohya, то он будет по-русски записываться как «Коя». Там в чём фишка: буква h используется для показания долгого звука. По-японски транскрибироваться азбукой будет こうや, на транслите kouya, но по факту типа «кооя» с долгой о. Но суть в том, что в именах собственных приняли систему, где это длинное о будет удлиняться через h, как в междометии «oh». Но у нас по-русски при написании иногда удвоение опускают, а так Коя или Кооя будут одинаково правильными. А так обычно видят Х и говорят Кохя или Кохья без понимания этих нюансов. Решил об этом написать отдельно, раз ты поднял эту тему в видео. Очень ценю, что ты так внимательно к именам относишься!
☝ Красавчик
я его вообще костей называю) ему все равно а мне проще)
@@Reality-Games а Коля еще проще
Выучить кану быстрее, чем эти тупорылые правила транслитерации. Видимо сидели проффесора и за гранты думали, чтобы ещё такое напридумать чтобы наукообразнее выглядело
Прошло уже больше 8-ми месяцев с угроз блокировки ютуба, что ещё сильнее подтверждает слухи, что ютуб не блокируют, только потому что ждут выхода нового ролика от Хачатура 👍
Существует ли связь между количеством материала для тренировки LoRA и ее итоговым качеством?
Других смотрю на х2 - это видео и другие на х1 и уже голова начинает кипеть) настолько погруженный автор в тему и такой концентрат сока дает))
ура ура новое видео, вечер пройдет восхитительно 😘👍
Титанический труд, шикарный контент. Этот час пролетел на одном дыхании. Количество полезной информации прямо запредельное. Спасибо!!
Вопрос: если тренировать на основе растений, нужно ли напротив этих 30 фотографий в текстовых файлах детально указывать, что на фото? Или СД сам разберет, где какой стебелек и листочек? Думаю, лучше спросить, чем делать большой, но, возможно, бесполезный кусок работы.
Наконец-то !!!! Только сейчас смотреть начинаю, надеюсь поможешь как всегда, спасибо !!!)
Спасибо! учусь пользоваться SD по Вашим роликам, и только по Вашим рекомендациям! все четко и понятно, доходит быстро)))
Спасибо огромное за portable Lora, а то с обычной установкой парился 2 часа, в итоге забил. А тут клик, клик и усе в ажуре. И как всегда крутая подача видео, для нормальных и тупых))). Живот болит от ржачки)) Все очень понятно, и результаты шикарные!!! Спасибо, от души!!
приветствую слушай я вот все делаю по видео ...загружаю светлую модель голубоглазую..а выходят китаянки темные ..что делаю не так подскажешь?..уже 3 раза тренировал..и 16 фото добавлял и 20 и 30))не пойму(((
@@K-A_Z_A-K_S_URALA та же история. уже несколько раз делаю и все бесполезно(
@@K-A_Z_A-K_S_URALA @ketrinkate попробуй прибавить влияние лоры на максимум и убавь CFG Scale,я убавил CFG Scale на минимум и только так максимальный результат
@@ketrinkateпопробуй прибавить влияние лоры на максимум и убавь CFG Scale,я убавил CFG Scale на минимум и только так максимальный результат
хорошо благодарю@@Sekeluhaa
Спасибо, за ролик, как всегда всё чётко и по делу в отличии от многих остальных блогеров! Очень жду роликов по коллабу, т.к лучше тебя никто не объяснит.))
Привет 🖐 Уже:
boosty.to/xpuct/posts/987f6426-909a-4066-8429-8fd4f377728e?share=post_link
Спасибо за видеоуроки, пользуюсь SD очень давно, в том числе и Deliberate, но только недавно узнал, что у тебя есть канал, где я почерпнул много интересного, тк самоучка.
Кстати, по моему опыту обучения лоры (после твоего видео пробовал разные способы), наилучший результат выходит при хороших качественных фото 512x768.
И, если обучать с однотипных селфи, то кидать более 15-20 фото действительно будут лишним, но если обучать по разнообразным фото (разные прически, эмоции, одежда) + если у человека разные образы (например, фотомодель), то в этом случае допустимо и 35-40 фото, так даже результат будет лучше, наиболее близок к оригиналу. Но важно, чтобы выражения лица должны быть разные, плюс нейросеть копирует одежду, фигуру (что важно, если делаешь девушку) и разные причёски, что тоже потом даёт лучший результат.
Хачатура, спасибо за твои работы!
Лайвхак ребята - Если у вас выдает ошибку - это значит вы не успеваете удалить папку sample, ее надо моментально как появилось удалять, тогда всё работает!
Устанавливал строго по инструкции. В интерфейсе отсутствует вкладка "dreambooth Lora". Пробовал запустить training во вкладках "dreambooth" и "Lora" - процесс всегда прерывается ошибкой "returned non-zero exit status 1" . Перепробовал все способы и опции, указанные здесь в комментариях и на других форумах - ничего не помогло. Если кто знает решение - напишите, буду благодарен.
Так же фигня. Читал, что в память упирается, но у меня 3070 и в диспетчере не вижу, чтобы память вообще как-то расходовалась активно.
в "Pretrained model name or path" укажи свой путь к .safetensors (у меня при открытии папки с моделями .safetensors файлов небыло и я просто дописал его название) файлам, ибо у меня по умолчанию стояло вообще E:/... хотя у меня даже диска E нет. Надеюсь вам поможет
Закройте консоль SD. Она занимает память. Одновременно две консоли SD и лора не должны работать.
Нужно в параметрах Optimizer поставить на AdamW, и Mixed precision на fp16, это более щадящие настройки для компа (для более слабых видюх), мб ты еще что-то неправильно поставил, но у меня были эти ошибки
Огнище!!! Хачатур и Сергей - мега спасибо! Лора - круть!
Подскажите, пожалуйста, при тренировке видео карта напрягается на 1-3% это нормально? Видюха RTX4070ti. В настройках оставил стандартные настройки из конфига вашего граального. Когда делаю фото для обучения, например, голова по плечи, могу ли я добавлять фото в полный рост что бы получить генерацию во весь рост? Или лучше делать отдельную модель в полный рост?
Просто- ОГОНЬ! Хачатур- это "делай как я". И это правильно. Молодца.
Круто. Ждал ваш ролик по этой теме. Хотелось ясной-ясности, а то есть там всякие..☺️
Пожалуйста, подскажите, как сделать режим использования видеопамяти более щадящим?
Не хватает памяти, пишет. В видеокарте установлено 4Гб (понятно, что маловато)
RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:81] data. DefaultCPUAllocator: not enough memory: you tried to allocate 1638400 bytes...
Вопросы:
• На какой модели лучше тренировать LoRA? (SD 1.4/deliberate_2/f222/%модель_на_которой_буду_генерировать%)
• Имеет ли смысл тренировать отдельную версию лоры под каждую используемую модель? (типа %person_name%_%model_name%)
Имеет смысл взять условный дримшейп или любую другую из топовых моделей (естетвенно 1.5 версии). На моем личном опыте, критической роли изначальная модель не играет, и если вы планируйте позже генерировать на своих миксах или стилизованных моделях, качество иногда может даже возрастать. Тут уже чисто как повезет. ))
@@user-zy9ov2vm8q, о, спасибо за инфу)
Приветствую! Пробовал плагин Photoshop от Stable Diffusion называется stable art на гитхабе? Хотел задать вопрос в дискореде, но не могу принять приглашение.
Хачатур, большое спасибо тебе за твой НЕВЪЕБЕННЫЙ контент
И Cереге лютый респект за лору
Салют из Торонто
Про Эпоки зря так. Штука крайне полезная, и позволяет сравнить этапы обучения и выбрать наиболее удачный. (я обучал стилизованных персонажей. По достижению определенного количество шагов, трейн начинал становится хуже, и тут сильно помогла выборка разных эпох). Кроме того, это позволяет создавать некие точки сохранения, что в случае форс мажора можно будет начать именно с них, а не с нуля. Насчет размера, тут возможно уже претензия скорее не совсем актуальна, так как видео было сделано относительно давно, и модели обучаются на более высоком разрешении. Тут нужно уже смотреть на саму модель и информацию, на каком разрешении она обучалась. Но подъем до 640 уже разительно увеличивает качество последующих генераций. Ну и ещё, стоило уточнить почему (Папку нужно указывать где лежит папка с фотографиями) - это позволяет Лору обучить сразу на нескольких объектов. Т.е. по факту в один файл лора мы можем на обучении поместить, к примеру, сразу нескольких людей. Название же папки с фотографиями определяет тригерное слово обучаемого объекта.
Возможность дообучить модель тоже крайне полезная и нужна не только когда (вы дурак и прервали обучения).
Нужно к примеру, если вы делайте огромную модель, и используйте больше 100 изображений. Как если делайте определенный стиль или обучайте лору нескольким персонажам.
И если у вас трейн прошел не совсем удачно и какие то моменты она подтянула плохо. (имеет смысл собрать ещё материалов с более наглядным внешним видом тех частей объекта, что нейронка не совсем корректно поняла). Я так поступил с лорой персонажа, которая нейронка съела вместе с одеждой и стала считать что одежда часть её тела. Я закинул в неё три удачные генерации оголенные модели, но с её анатомией и пропорциями. И после такого дообучения, лора стала более гибкая в подборе одежде к необходимому персонажу.
Уважаемый юзер. А вы не скажете, где можно узнать, КАК продолжить обучать лору или модель, если пришлось трейнинг остановить? То есть я не знаю, какие файлы куда ставить, чтобы продолжить. Где-то есть инфа по этому поводу? (огромное спасибо, если ответите)
@@dianaorion2 Заходите в раздел "Parameters" и ищите раздел "LoRA network weights", там кнопка в виде файла будет. В открывшимся окне выбирайте последний сохраненный сейфтензер с лорой. По факту, таким образом можно дообучать даже скаченные с интернета чужие файлы LORA. Только важно, чтобы параметры Network Rank совпадали.
Если вы разрабатывали определённые стили, то можете пожалуйста поделиться своим опытом или дать ссылки на полезные руководства/справочники, так как сам хочу обучить модель конкретному стилю рисования. Буду очень вам благодарен.
@@kail1672 модель для меня обучить сложно (технически), я обучала лору на художнике. Пыталась, по крайней мере ) Обучила, добавляю лору в промпты. Эффект не вот прям сильный, но придаёт своё. Притом даже неправильное обучение лоры тоже даёт интересный результат. Просто пробуйте подбирать картинки для обучения, смешивайте лоры
Огромное спасибо! Лучший ролик по теме
Хачатур, большое спасибо! Есть что проверить и попробовать)))
Привет, я так понимаю программа обновилась и этот гайд бпольше не актуален?)
Ну неплохой гайд. Только есть один момент вы пошли по долгому пути. Там ечть вкладка tool. В которой просто также вставляете папки, папку с проектом и каличество проходов. Нажимаете сгенерировать папки и вторая серая кнопка отправить папки. И он распределит и создвст все как нужно.
Привет, спасибо за работу. Подскажите пжлс, как настроить скрипт x-z plot. чтобы сравнить результат с разными значениями лоры? от 0.1 - 1.0 к примеру
добрый день. не могу найти.... где-то было видио где говорилось про то как использовать две лоры в одной генерации, можете подсказать где это было?
Превью суперское 🔥🔥🔥
Хачатур, спасибо! Ты для меня новую вселенную открыл)) До этого я и в Миджорней баловался, зарегался в бета-тесте Леонардо, а тут оказывается эвона чо! Делиберейт + SD = потрясающая связка! Не смотря на то, что я актёр дубляжа, уже три дня сижу и генерирую, как дэбик картинку за картинкой и не могу остановиться. А теперь еще и Лариса подъехала (то бишь, Лора) Продолжай в том же духе, очень с юморком, грамотно и интересно рассказываешь, а главное - суть без воды. Суть от разраба, а не от неофитов.
Добрый день. скажите а лучше тренить лору на первом делибрейт или второй версии?
Вот это сейчас реально неожиданно было) не за горами анимация походу😅
"От эффекта ДаблЁбл никто не застрахован" просто вынесло
Бля лучший учитель
Как всегда прекрасен!
Спасибо за проделанную работу! Смотрел видео от Оливио и других и вообще не вдуплил, как работает Лора. А тут прям в сердечко)
Вопрос. Имеется Lora конкретного человека, но при генерации full body кадра, лица нет от слова совсем, есть ли вариант это исправить? Так как правка лица через inpaint результат получается плачевный.
Привет, хотел тебя спросить. Вот у меня есть 2 лоры на разных персонажей, как я могу сделать так,что бы эти лоры не конфликтовали,когда я пытаюсь на одной картинке сгенерировать сразу 2х персонажей. Допустим я делаю арт где 2 девушки обнимаются. Если я ставлю сразу 2 лоры, то конечно же они безобразят друг друга,а можно ли сделать что бы одна лора рисовала одного персонажа,а в другая лора другого персонажа? Надеюсь я понятно описал свою проблему)
у меня работало нормально , но потом стало почемуто ошибка "A matching Triton is not available, some optimizations will not be enabled.
Error caught was: No module named 'triton'" и время генерации на часы уходит
помогите плиз.
Короче, я выяснил в чем дело. Если запускать файл webui_Lora_only.cmd то тритон подключается и обучение сети идет быстро. если через вебуи.кмд - то время пипец какое большое и ошибка тритона.
Да, Хачатур этот момент не указал в видосе. Действительно разница огромная. Спасибо за то что написал в чём было дело
Пришел к блогеру за учением, а получил пиздюлей))) спасибо за видео!
Хачатур, добрый вечер! Обучил модель в Lora. Подскажи плиз, в чем может быть проблема, если на stable diffusion запускаю несколько раз imgtoimg в режиме скрипта Outpainting mk2 для расширения области генерации у меня комп просто выключается. Проверял память все ок. же голову сломал. Может быть нужно какие-то настройки ввести что бы SD не ломала комп?
огромное спасибо за ваше потраченное время👍👍👍
Вопрос: после нажатия Train Model процесс бесконечно зависает на этапе "prepare tokenizer". Все настройки сделаны по руководству. Mixed precision и Save precision - bf16, т.к. видеокарта 2070 Super. WIN 10. В чем может быть ошибка?
такая же проблема( Если получится выяснить как решить - напишите пожалуйста
То же самое, только скачал, поставил как сказано, сверяясь с каждым шагом и зависает процесс . Возможно это свежий баг, до этого скачанная неделю назад версия работала, только результат фиговый получался, нерабочие модели получались, в то же время модели лоры на колабе все норм. Решил снести и поставить свежую портайбл версию и такая засада.
Отключение брандмауэра и антивируса так ничего не дало, думал может виснет от того, что не может до этого токенайзера достучаться из--за ограничения сети, но похоже дело не в этом.
Да, при закрытии выдает на несколько секунд инфу, ютуб все комментарии трет, при малейшем подозрении на ссылку, поэтому попробую текстом прописать:
prepare tokenizer
Traceback (most recent call last):
File "путь к ranpy точка ру ", line 196, in _run_module_as_main
return _run_code(code, main_globals, None,
File "путь к ranpy точка ру", line 86, in _run_code
Попробуйте поставить версию с гитхаба. Сейчас это сильно проще чем портабельная версия. Вообще SD так быстро развивается что такого рода проблемы выскакивают постоянно.
Могла бы подписалась три раза. Я так хотела портативную Лору. Потому что все что в интернетах, это не для обычного обывателя. И когда я почти дозрела до установки всей этой страшной фигни, такая радость.
Лайк и респект, не глядя!)
тутор на час, все как мы любим))
Интересное дополнение, сначала я кропнул лицо или тело на исходных фотках дабы избавиться от лишних предметов, потом перевёл в формат 512,512 ,отключил бакетинг, все сеттинги как описано Хачатуром. Получилось неплохо, но потом в качестве эксперимента я настал их переводить в 512,512, а оставил в высоком разрешении и включил бакетинг, модель оказалась в разы лучше! По времени тренинга практически одинаково.
Подскажи пожалуйста, а в настройках менял разрешение или использовал конфиг файл от Хруста без изменений?
@@smiledurb В настройках у меня было стандартное 512 х 512. Я в последнее время вообще перешёл на lycoris, очень советую поэкспериментировать, там результаты порой получаются круче. Плюс я также заметил, что captioning, тоже играет немаловажную роль. И ещё, как и в случае нормальной лоры, если много картинок, то можно сократить колличество эпох.
Мастеру Хачатуру большое спасибо!
Нужен совет по теме. Есть задача, сравнить несколько однотипных Lora между собой и проверить качество. С одинаковыми Seed изображения получаются качественные, но немного разные, т.к. использовались разные наборы фото. Как понять, какая из этих Lora более стабильная? Генерировать пакеты изображений по каждой с одним и тем же Seed и смотреть по кол-ву тех, что вышли лучше или есть другие методы?
Хачатур, премного тебе благодарен
понятно, просто, качественно, смешно, классно. учиться довольно приятно благодаря тебе
Тоже мне разраб, не может написать приблуду для автоматического увеличиения размера камеры при повышении градуса пердакагорения, все руками крутит 🥴
Шикарны видос, спасибо! 🥳
Огромное спасибо за видео! Очень подробно и понятно объясняется.
А как происходит обучение сеток на основе визуального стиля художника? Когда полностью рисуются персонажи и окружение в этом стиле? т.е. с лицами понятно - нашёл 15-30 лиц персонажа и будет этот персонаж, но есть же сетки на основе работ комиксистов, например, и там любые персонажи и любое окружение в этом стиле.
еще один вопрос, по теме steble diffusion portable main запустил как обычно однако пишет (нажмите для продолжения любую клавишу) , это как-то можно исправить или все по-новому устанавливать
Спасибо, за "приветы")) Всё по делу👍
Подача шикарна, как и материал....Ты сделал мой день, настроение супер
Ребят, помогите понять ошибку, после окончания трейнинга на рабочем столе появляется файл формата json, а не safetensors. Все параметры настроены четко по видео. Папку sample удаляла сразу🤔
Проверьте путь сохранения safetensors.
@@XpucT это же output folder? Стоит рабочий стол. Сейчас проверила, также после обучения sample (удаляю) и с ним json файл появляется, вместо safetensor
Та же проблема, уже все сто раз проверила шаг за шагом
Уже решили проблему? А то у меня тоже самое@@user-ec3lt2tg2o
@@user-ec3lt2tg2o но вообще все зависит от ошибки. У меня выдавало, что нет xformers, поэтому нужна была CUDA
Ну наконец-то новое видео!
проверил связку, хорошо работает спасибо
Спасибо за видео, я устанавливал руками все это раньше, вроде беспроблемно, был до 20 минуты вопрос установлен ли cudn для 30 и 40 серии, но молодцы добавили и это, снимаю шляпу)
Про BF16 не знал, использовал с FP16 на своей 4070ti
Данный способ был проще и быстрее для меня, чем прошлое ваше видео про Train
Спасибо что тратите время как разработчик и разбираете то, чем мы пользуемся, обычный человек никогда бы не разобрался в некоторых моментов.
Продолжайте дальше в том же духе! Для видео надо уже добавлять дисклеймер что любые перемотки вы совершаете на свой страх и риск, потому что каждая секунда видео на вес золота)
Ваша подача и сам контент на 200% окупает мою подписку на бусти
Всех благ, Хачатур!
хотелось бы видеть для расширения собственного кругозора: 1) результаты работы ресторфейса 2) признаки перетренерованности нейросети
Спасибо за качественный контент!
На карте 1060 6gb почему-то не хочет тренироваться - не хватает памяти. В конце видео вы сказали, что запишете видос про Коллаб для тренировки. Посмотрел все видео на канале - такого не было. Может хоть ссылку дадите на безглючный рабочий коллаб для тренировки?
Не, ну это 10 епоков из 10👍
Премного благодарен! Отдельный респект за терпение и подробное разжёвывание для неспешных пацанов)
Спасибо было очень интересно !!!!
спасибо, долго ждал
Ждём такой же подробный разбор как обучить чекпоинт
Огромное спасибо за ролик. У меня один вопрос, на который нигде не смог найти ответа. Есть рендеры меча в разных ракурсах. Реально ли как-то обучить LoRA, чтобы сгенерированные персонажи держали этот или похожий меч в руках?
Спасибо большое за видео !
Ну ты неимоверно крутой человечище! Особенно нравится подача и со знанием дела. Я сам тоже люблю закапываться в самые недра! Спасибо!
Добрый день! Спасибо за видео! Не могли бы вы пройтись по теме ошибок, в частности как решить проблему с ошибкой нехватки памяти: allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF. Сколько ковырялся с этой ошибкой и лазил по форумам, заметил что возникает она и на слабых вилюхах и на RTX последних поколений и не важно какой объем памяти. Реально большая проблема. Буду очень признателен.
Спасибо большое, очень полезная информация для новичков!
Хачутур, добрый вечер. Почему в папке с фото для тренировки отсутствует вид в профиль?
не запускается 😭😭😭, что-то изменилось в программе? при установке программы, консольное окно вылетает , браузер не открывается ....
мне помогла установка "VC_redist.x64.exe" решение нащупал случайно, ссылку не дам так как ютуб, скажу только что там есть версии за разные года, надо подобрать или ставить все.
Что бы я ни делал - в конце выдаёт returned non-zero exit status 1... Что это может быть? Подскажите пожалуйста ребят)
Аналогичная проблема
Тоже самое 😔
Удалось решить? Такая же беда (
Огромное спасибо за весь ваш труд с Сергеем. Очень подробно все рассказываете.
Подскажите момент
после удаление sample вылетает
AssertionError: resolution is required /
и чуть ниже
CalledProcessError: Command '['D:\\LORA\\Kohya_ss-GUI-LoRA-Portable-main\\venv\\Scripts\\python.exe',
где я накосячил?
Надо поменять вместо AdamW 8 bit просто AdamW
@@DrizztDoUrden-zn3ik это работает если видяха 10серии и не тянет 8б. В моем случае помогла переустановка Лоры
Очень крутые гайды и все же есть вопрос смотреть каждый часовой ролик в поисках конкретной части долго. Однако вот есть вопрос у меня есть модель которая была тренирована на основе другой модели и я нашел более крутую модель на которой хочу переучить текущую. Есть ли у вас где то гайд или ролик где эта тема затрагивается. Спасибо большое.