Вот просто лучший по автоматику. Все понятно, разложено по полочкам. Что от куда скачать, что как называется. Спасибо за эту подробность, это важно. Так никто не делает. Поэтому твои видео лучше. 👍
Спасибо за видео, обратил внимание при недавнем обновлении контролнета на новую кнопку инстанст id, но не понял зачем, теперь понятно. По самой технологии, в принципе неплохо делает лица на крупных и средних планах, на уровне как раз всяких рупов и реакторов, но гораздо хуже чем лоры. На дальнем плане каша а не лицо. В общем как дополнительный инструмент пойдет, но не как основной. Ну и может это первые версии такие, надеемся на повышение качества в следующих версиях , если они будут. Еще раз спасибо за ролик.
В автоматике ещё не успел попробовать, но в ComfyUI результат более похож чем я добивался при помощи Лоры. Но тут нужно использовать правильное входящее фото, которое рисует похоже
У вас очень хорошие гайды, с удовольствием учусь по ним. Пожалуйста снимите видео по работе в inpaint в automatic как править арты и т.д и про расширение adetailer. В inpaint у меня почему то не работает after detailer хотя в txt2img все норм
Автору огромное спасибо за его труд! Узнал много полезного, например, про глаза в адитейлере. При этом искренне не понимаю, чем эти, как бы имитирующие "стиль лица" адаптеры - лучше нормального реактора? У меня так ни разу и не получилось, все "как бы похоже", но на самом деле не то. Но автору, еще раз спасибо! И успехов.
Привет) Соглашусь с многими комментариями, приятная подача и содержание. Присоединился) Подскажи, для моделей 1.5 будет реализован инструмент Instant-ID или забыть? Благодарю
@@misterXCV_games перекачал другую сборку и заработало, важно чтобы было похоже Sampling steps ставть 30-40, а в контарнеле в адаптаре значине Ending Control Step выставить на 05, или луче Starting Control Step 02, а Ending Control Step 07 или 08 выставить обязательно иначе не особо похоже будет.
Здравствуйте, спасибо вам за урок. Хотелось спросить,я вроде все делаю как по уроку, ставлю такие же настройки, но у меня stable diffussion по своему генерирует вообще не смотрит на фотографии, делает свои изображения какие хочет. Как исправить? Заранее спасибо
Месяц прошел, а ничего не изменилось, не работает сейчас все это, даже при четком соблюдении всех настроек, интересно автор роликов хоть немного отслеживает функциональность тех советов, какие он дает, или просто шпарит без разбора новые видосы и шпарит. Зачем я тратил время на просмотр этого материала, а в итоге оказалась, что функция не рабочая.
Ребята, подскажите кто знает.. Картинки которые я генерирую в Stable Diffusion, можно ли их использовать в коммерческих целях? Например, продавать людям на биржах фриланса? Как вообще обстоят с этим дела?
Добрый день. По этому гайду у меня не заработало - вот такую ошибку выдавало - ModuleNotFoundError: No module named 'insightface' Но я так понимаю, это модель из реактора? Стоило ее скачать и все пошло-поехало. Только арты перегретые получаются А у вас работает без этой модели?
@@glitchfactory404 у меня 3060 на 12, тоже очень долго на ХЛ моделях работает автоматик. Одно изображение 10-15 минут, но это если не понижать количество шагов. На 5-8 тоже выдает терпимую картинку и работает в разы быстрее. При этом Фокууус на ражиме кволити летает как птичка на тех же моделях. Поэтому почти перестала уже пользоваться автоматиком. Зашла вот пощупать модельки новые контролнета, в итоге ни на txt2img, ни на импейнте не поменялось лицо( Даже если повысить Control Weight до 1,5 и поставить галочку контролнет ис мо имортант. Да и качество и качество картинок на Фокууусе гораздо выше.
Всё включил, всё настроил, но не генерирует ни нужное лицо, ни "положение" лица в пространстве. Проверил всё с самого начала - пересмотрел все галочки и все настройки - всё как в этом видео, но генерит рандомные лица... В чем может быть причина?
Да хорошо конечно что у Стеблдифа теперь 4090, но как там дела у тех кто сидит условно на 1650? Сколько по времени займет ген-ция одного изображения на видяхах попроще с 8гб памяти?
Я на 8гиговой 3060ti генерю, но генерации долгие, 20 гагов - 20 мин грубо говоря. На 1650 думаю будут еще дольше + должно быть оперативки с запасом и файл подкачки. Есть лайт версия на канале Нейроген, глянь там качество хуже, но генерации несколько секунд занимают
@@Alexey-m5j странно... У меня 2060 Super 8Gb. Генерация с 26 шагами и с разрешением 832х1152 заняла 9 минут. А с включённым параметром Low VRAM 7 минут. Но ну его нафиг, этот InstantID. Буду дальше пользоваться FaceID и Реактором)) А если сильно нужно, то InstantID можно использовать на huggingface.
Не работает сейчас все это, пробовал на разных сборках SD. Automatic 1111 версия v1.10.0, модель juggernautXL_version6Rundiffusion.safetensors [1fe6c7ec54] хотя пробовал и другую модель XL, разрешения пробовал разные, в первой вкладке ControlNet Unit 0 [Instant-ID] Preprocessor instant_id_face_embedding, Model ip-adapter_instant_id_sdxl [eb2d3ec0], вторая вкладка ControlNet Unit 1 [Instant-ID] Preprocessor instant_id_face_keypoints, Model control_instant_id_sdxl [c5c25a50] ничего не происходит, лицо не меняется, просто генерируется произвольное изображение согласно промту, которое вообще чаще всего не имеет ничего общего с изображением из первой или второй вкладки. ControlNet переустанавливал. У кого-то это сейчас вообще работает???
Получилась огромннйшая голова, предсталяю, как все мои знакомые художники бьются в припадке падучей от результата, и проклинают всех нейронщиков за то, что вся их лента завалена кривыми убожествами
И нахрена этот корявый инстант айди, если реактором в разы быстрее и качественнее делается? И глаз кривых не будет, а в связке с адетелйром ещё лучше результат + ещё некоторые связки есть ,в которых результат вообще имба
И adetailer тоже не устанавливается, ни по прямой ссылке, ни по клику instal, если его установить, то SD просто перестает запускаться, так что приходится идти в папку extensions и полностью удалять папку с adetailer, после этого запускается нормально. А еще раньше точно так же вылетел posex, а сколько было по поводу него восторгов, когда он появился. Короче, понятно, что такое Stable Diffusion, это в чистом виде "письмо дяди Федора", которое каждый клоун редактирует по своему усмотрению, к автору канала это не относится, поскольку он всего лишь обзоры делает, но в целом продукт ужасный, работать с таким продуктом на профессиональной основе, как, например, с фотошопом, будет крайне проблематично, потому что когда у тебя постоянно что-то вылетает, поскольку кто-то в очередной раз сломал это своими рукожопыми руками, то это не работа...
Спасибо за ролик. Спасибо что разобрал что бы не тратить время на это дерьмо. Но это очередные костыли, в стиле копипасты головы в фотошопе. Выглядит ужасно, я не про работу автора ролика а вообще про принцип. Как быстрая халтура пойдет. Но если надо делать качественно, то только hypernetwok много и надолго.
Берёшь турбо xl модель. Ставишь cfg 2 и steps 10, пишешь негативный промт на реализм и охреневаешь. Это реально геймченьжер. По средней фотке из инсты, без всяких лор... это словами не описать.
@@StableDiff а в comfyui на основе какого расширения будет обзор? от ZHO-ZHO-ZHO? если да, то там же нет никакой свободы действий, ноды там все свои кастомные, не работают со стандартными. насколько я вижу, все ждут нативной поддержки InstantID в ComfyUI. или я что-то упустил?
🔥Телеграм канал: t.me/stable_dif_lesson
📌 Telegram ЧАТ: t.me/stable_dif
✔️ VK Prompts: vk.com/stabledif
🔑 Видео по ComfyUI InstantID скоро выйдет на Boosty:
boosty.to/stabledif
Почему не говорится, что InstantID работает только с SDXL?
@@havemoney не тестировал на 3060.
Вот просто лучший по автоматику. Все понятно, разложено по полочкам. Что от куда скачать, что как называется. Спасибо за эту подробность, это важно. Так никто не делает. Поэтому твои видео лучше. 👍
Спасибо. На ютубе мало каналов, где так подробно и понятно рассказывали бы о A1111. Даже англоязычные каналы не такие подробные.
Sposiba drug. Ochenj koroshaja i poleznaja info. Udachi ✌👍
Спасибо, лучший рунет канал по стабильной диффузии
Спасибо за видео! И отдельно, что прислушиваетесь к подписчикам!
мне ни на один коммент не ответил из всех что я оставлял
Олег, спасибо за урок!) Отличный)
Таких бы людей по больше на нашей планете...
Спасибо, Орех!
Спасибо за видео, обратил внимание при недавнем обновлении контролнета на новую кнопку инстанст id, но не понял зачем, теперь понятно.
По самой технологии, в принципе неплохо делает лица на крупных и средних планах, на уровне как раз всяких рупов и реакторов, но гораздо хуже чем лоры. На дальнем плане каша а не лицо. В общем как дополнительный инструмент пойдет, но не как основной. Ну и может это первые версии такие, надеемся на повышение качества в следующих версиях , если они будут. Еще раз спасибо за ролик.
В автоматике ещё не успел попробовать, но в ComfyUI результат более похож чем я добивался при помощи Лоры. Но тут нужно использовать правильное входящее фото, которое рисует похоже
Спасибо,полезное видео❤
Спасибо за видос 😊
У вас очень хорошие гайды, с удовольствием учусь по ним. Пожалуйста снимите видео по работе в inpaint в automatic как править арты и т.д и про расширение adetailer. В inpaint у меня почему то не работает after detailer хотя в txt2img все норм
Автору огромное спасибо за его труд! Узнал много полезного, например, про глаза в адитейлере. При этом искренне не понимаю, чем эти, как бы имитирующие "стиль лица" адаптеры - лучше нормального реактора? У меня так ни разу и не получилось, все "как бы похоже", но на самом деле не то. Но автору, еще раз спасибо! И успехов.
Реактор не попадает в стиль и сильно мылит лицо.
Привет) Соглашусь с многими комментариями, приятная подача и содержание. Присоединился)
Подскажи, для моделей 1.5 будет реализован инструмент Instant-ID или забыть?
Благодарю
6:00 instant id face embedding у меня нет этого препроцессора и при попытке генерации программа выдает ошибку и вылетает. Что посоветуете ?
Такая же беда. Нашли решение?
@@misterXCV_games перекачал другую сборку и заработало, важно чтобы было похоже Sampling steps ставть 30-40, а в контарнеле в адаптаре значине Ending Control Step выставить на 05, или луче Starting Control Step 02, а Ending Control Step 07 или 08 выставить обязательно иначе не особо похоже будет.
@@misterXCV_games InstantID можно и бесплатн ов инете попробовать и там луче получается и без настройки геморойной
так в фордже тоже работает или есть нюансы?
Здравствуйте, спасибо вам за урок. Хотелось спросить,я вроде все делаю как по уроку, ставлю такие же настройки, но у меня stable diffussion по своему генерирует вообще не смотрит на фотографии, делает свои изображения какие хочет. Как исправить? Заранее спасибо
Месяц прошел, а ничего не изменилось, не работает сейчас все это, даже при четком соблюдении всех настроек, интересно автор роликов хоть немного отслеживает функциональность тех советов, какие он дает, или просто шпарит без разбора новые видосы и шпарит. Зачем я тратил время на просмотр этого материала, а в итоге оказалась, что функция не рабочая.
Ребята, подскажите кто знает.. Картинки которые я генерирую в Stable Diffusion, можно ли их использовать в коммерческих целях? Например, продавать людям на биржах фриланса? Как вообще обстоят с этим дела?
Да тут главное попытаться продать.
Можно продавать. Проблем не будет.
Подскажите, сначала нужно контрл нетом делать, а потом детейлером или все вместе?
Добрый день. По этому гайду у меня не заработало - вот такую ошибку выдавало - ModuleNotFoundError: No module named 'insightface'
Но я так понимаю, это модель из реактора? Стоило ее скачать и все пошло-поехало. Только арты перегретые получаются
А у вас работает без этой модели?
на 3060 12гб занимает минут 15)
если не включать второй котнролнет на позу лица, то делает быстро, но пропадает схожесть с фото
3080 - под 4 минуты
На SD Forge работает моментально
@@YuryDa плюсую.
Не работает. Всё сделал по инструкции, выставил все настройки как на видео, ничего не меняет
Я правильно понял что только с XL работает?
С видеокартой 4060ti 8 гигов процесс создания 1 изображения затягивается минут на 20, это нормально или можно как-то ускорить ?
Это очень долго, такого не должно быть
Используй SDXL Turbo чекпоинт, у меня, даже на гребаном маке, 2 минуты 1024x1024
При 8 шагах, отличный результат
@@glitchfactory404 у меня 3060 на 12, тоже очень долго на ХЛ моделях работает автоматик. Одно изображение 10-15 минут, но это если не понижать количество шагов. На 5-8 тоже выдает терпимую картинку и работает в разы быстрее. При этом Фокууус на ражиме кволити летает как птичка на тех же моделях. Поэтому почти перестала уже пользоваться автоматиком. Зашла вот пощупать модельки новые контролнета, в итоге ни на txt2img, ни на импейнте не поменялось лицо( Даже если повысить Control Weight до 1,5 и поставить галочку контролнет ис мо имортант. Да и качество и качество картинок на Фокууусе гораздо выше.
Всё включил, всё настроил, но не генерирует ни нужное лицо, ни "положение" лица в пространстве.
Проверил всё с самого начала - пересмотрел все галочки и все настройки - всё как в этом видео, но генерит рандомные лица...
В чем может быть причина?
Проверь ошибки может в консоле.
@@StableDiff is not compatible with sd model(StableDiffusionVersion.SD1x)
Это оно?
@@StableDiff юзаю Джагернаут 8. Почему тогда несовместимость? оО
@@StableDiff методом тыка нашел проблему - ошибка начинается на этапе добавления "Multi-inputs", которые ты показал на 14:41.
@@pro-otoplenie2108 не работает multi inpaint?
Да хорошо конечно что у Стеблдифа теперь 4090, но как там дела у тех кто сидит условно на 1650? Сколько по времени займет ген-ция одного изображения на видяхах попроще с 8гб памяти?
Не потянет просто. От 12гб памяти только, а желательно 16гб.
Я на 8гиговой 3060ti генерю, но генерации долгие, 20 гагов - 20 мин грубо говоря. На 1650 думаю будут еще дольше + должно быть оперативки с запасом и файл подкачки. Есть лайт версия на канале Нейроген, глянь там качество хуже, но генерации несколько секунд занимают
У меня 6гб 1050 ti, с трудом тянет, 512:768 40-50сек иногда больше минуты с расширениями, мне кажется это минимальные требования для железа
@@StableDiff Добавьте в закрепленный комментарий. Это же важно очень! У многих просто не запустится!
@@Alexey-m5j странно... У меня 2060 Super 8Gb. Генерация с 26 шагами и с разрешением 832х1152 заняла 9 минут. А с включённым параметром Low VRAM 7 минут.
Но ну его нафиг, этот InstantID. Буду дальше пользоваться FaceID и Реактором)) А если сильно нужно, то InstantID можно использовать на huggingface.
А можно ли это прикрутить к фокусу ?
Нет. Только создатель в состоянии это сделать. Но он сделает. ControlNet это его проект тоже.
Это лучше чем реактор ?
В комфи я уже свихнулся.... один раз каким-то раком поставил, потом что-то сделал не то и привет...теперь установить не получается ни в какую...
ComfyUi сложнее и по установке нодов и по схемам. Но и возможности шире.
Почему оно не работает? Все модели препроцессоры галочки параметры на месте. Просто генерит но лицо не подставляет
Обратите внимание на расширения имен файлов. .Бин и .сейфтенсорс
@@IgorUlman должна брать. Гуглите ошибки в окне сервера. Скорее всего, что-то забыли в настройках.
А для SD1.5 не пойдёт? Или можно просто файлы переименовать под SD1.5?
Не пойдет
подскажите, на маке это сделать можно всё?
Вряд-ли. Придется Collab или что-то подобное орендовать
@@StableDiff а collab это что в двух словах?
@@a.shulevka это сетевые ресурсы Гугла, генерация происходит на их серверах, но там свои ограничения.
@@a.shulevka это онлайн аренда серверного ресурса с мощными графическими процессорами от Google. Сейчас работает за деньги только.
@@StableDiff спасибо
Не работает сейчас все это, пробовал на разных сборках SD. Automatic 1111 версия v1.10.0, модель juggernautXL_version6Rundiffusion.safetensors [1fe6c7ec54] хотя пробовал и другую модель XL, разрешения пробовал разные, в первой вкладке ControlNet Unit 0 [Instant-ID] Preprocessor instant_id_face_embedding, Model ip-adapter_instant_id_sdxl [eb2d3ec0], вторая вкладка ControlNet Unit 1 [Instant-ID] Preprocessor instant_id_face_keypoints, Model control_instant_id_sdxl [c5c25a50] ничего не происходит, лицо не меняется, просто генерируется произвольное изображение согласно промту, которое вообще чаще всего не имеет ничего общего с изображением из первой или второй вкладки. ControlNet переустанавливал. У кого-то это сейчас вообще работает???
Как то не очень пока sd лица пересаживает, дочерняя Фукус и то лучше
Получилась огромннйшая голова, предсталяю, как все мои знакомые художники бьются в припадке падучей от результата, и проклинают всех нейронщиков за то, что вся их лента завалена кривыми убожествами
Их время проходит, пусть проклинают сколько влезет
@@CharlieOne-te9koо да, мир принадлежит большеголовым...
Опробовал. Метод качественный, но требует дохрена времени генерации, особенно в сочетании с хайрез. Лучшего попадания в детали я пока не встречал.
@Shurikman72, можно, но мне проще ткнуть одну галку и подождать.
С оптимизацией пока не очень. 3070 8гб для нее очень мало
У меня на 2080 8гб генерит 4-6 минут. А у тебя?
@@сверхчеловечек То что работает это вообще здорово. Разраб пишет 12-14гб памяти нужно.
у меня на 4070 с 12 гб генерирует настолько долго что я успел состариться
У меня 3070Ti с 8 Гб, на Forge работает довольно шустро.
@@_FirstName__LastName_ "шустро" это сколько минут? А то у меня в районе 10 на обычном автоматике на 4070
И нахрена этот корявый инстант айди, если реактором в разы быстрее и качественнее делается? И глаз кривых не будет, а в связке с адетелйром ещё лучше результат + ещё некоторые связки есть ,в которых результат вообще имба
И adetailer тоже не устанавливается, ни по прямой ссылке, ни по клику instal, если его установить, то SD просто перестает запускаться, так что приходится идти в папку extensions и полностью удалять папку с adetailer, после этого запускается нормально. А еще раньше точно так же вылетел posex, а сколько было по поводу него восторгов, когда он появился. Короче, понятно, что такое Stable Diffusion, это в чистом виде "письмо дяди Федора", которое каждый клоун редактирует по своему усмотрению, к автору канала это не относится, поскольку он всего лишь обзоры делает, но в целом продукт ужасный, работать с таким продуктом на профессиональной основе, как, например, с фотошопом, будет крайне проблематично, потому что когда у тебя постоянно что-то вылетает, поскольку кто-то в очередной раз сломал это своими рукожопыми руками, то это не работа...
Спасибо за ролик. Спасибо что разобрал что бы не тратить время на это дерьмо. Но это очередные костыли, в стиле копипасты головы в фотошопе. Выглядит ужасно, я не про работу автора ролика а вообще про принцип. Как быстрая халтура пойдет. Но если надо делать качественно, то только hypernetwok много и надолго.
не превращайся в инофоцыгана!!!!!!!!! с вашим курсом все к этому и идет!!!!!!!
Инфоцыган как раз отпочковался, смотрю больше нет его на канале у Orex 😂
Не знаю. В автоматике она в разы хуже face id. Даже у вас видно, что слишком повышенная насыщенность и посредственное качество.
В ComfyUi свобода действий. И схемы есть очень крутые под эти id. Про ComfyUi выложу на boosty через несколько дней.
Берёшь турбо xl модель. Ставишь cfg 2 и steps 10, пишешь негативный промт на реализм и охреневаешь. Это реально геймченьжер. По средней фотке из инсты, без всяких лор... это словами не описать.
Если немного пережарено кажется, то это я cfg задрал высоко значит.
@@StableDiff а в comfyui на основе какого расширения будет обзор? от ZHO-ZHO-ZHO?
если да, то там же нет никакой свободы действий, ноды там все свои кастомные, не работают со стандартными.
насколько я вижу, все ждут нативной поддержки InstantID в ComfyUI. или я что-то упустил?
На самом деле, если все нормально настроить, то такой степени схожести лица с оригиналом никакие face-id не дают. Ждем оптимицазии
Сырая технология. Ничем не лучше reactor по качеству