Спасибо большое за обзор этого расширения! Действительно, это очень сильно упрощает работу и создание действительно качественных работ, а так же для "перерисовки" фотографий людей и так далее. И как дополнение для тренированных hypernetwork моделей.
Хорошая рекомендация, но это больше подходит для тех, кто работает на поток. Для тех, кто использует SD в качестве развлечения, преимущества перед встроенные Inpaint and Sketch не очевидны. Предлагаемые функции, на мой взгляд, даже излишне. Любое фото перед загрузкой в Inpaint готовится в Photoshop (можно и без него) за 2 минуты: меняем размер фото --> блюр или карта шумов --> при необходимости отдельным файлом делаем маску --> загружаем в Inpaint. Качество получается просто фантастическое, особенно если грамотно проработать карту шумов. Также, можно из без предварительной обработки сразу закинуть фото и генерировать из нее что угодно. Единственное, что заинтересовало из рассмотренных функций - это карта нормалей.
В общем.. сколько я не интересовался-никто не хочет говорить или (не знает?) как использовать control temporalnet -можно ли его использовать в облаке?? И тоже про новый facecontrol - И опять же тот вопрос??Заранее спасибо!
Спасибо большое. Сделай пожалуйста видос про t2i Адаптеры. Если с Color adapter и Style adapter я более менее разобрался, то со Sketch адаптером не понятно с каким препроцессором использовать. А еще есть keypose adapter, который корректнее, чем openpose распознает позы
Вышел OpenPose Editor для Control NET - интерактивный позинг внутри интерфейса SD. Уже сделал видос по нему! - th-cam.com/video/IngkQBDK16k/w-d-xo.html
Добрый день! все сделала как в видеоуроке, все легко и доступно) но у меня постоянно выскакивает ошибка "Warning: ControlNet failed to load SGM - will use LDM instead"..как это исправить ума не приложу. Может кто то с этим сталкивался?
Я видимо где-то прослушал. Но что есть "Annotator Resolution" в pose препроцессоре? За что отвечает эта настройка? (Выяснить на опыте возможностей мало ибо 1050ti генерит 3-4 картинки дольше чем идет это видео...)
Разработчик рекомендует ставить annotator resolution на то же значение что и в родном width или будут проблемы пишет он. Я честно говоря не видел проблем что при повышении значений в этой графе что при понижении. Разберусь если сниму еще одно видео, сейчас кстати обновили control net добавили интересную фичу очень
Вижу на видео ту же проблему, которую не могу решить сам. Это оружие в руках персонажа. Вместо мечей в руках какая-то хренотень непонятная, даже в img2img. Я уже просто реально запарился - как заставить нейронку рисовать нормальное оружие в руках???
Подскажите пожалуйста, в какую папку сохраняются карты глубины и прочие втотичные сгенерированные картинки? Например для карт глубины в настройках по умолчанию стоит папка "stable-diffusion-portable-main\extensions\sd-webui-controlnet\detected_maps" но захожу туда, а там пусто
@@tolstikovpro да, так получается, но я нашел где собака зарыта. В настройках выбираешь ControlNet и ставишь галку в чекбоксе "Allow detectmap auto saving"
@@tolstikovpro кстати все сгенерированные КонтролНэтом картинки все равно кэшируются в папке tmp, в корневой папке Автоматика. Так что не забываем чистить
@@TokisakiLark я разобрался)Это не ошибка. Нужно указать только одну ссылку -- на контрол-нет, а в поле для указания папки для установки вообще ничего не писать - программа сама знает куда устанавливать)
У меня выдаёт вот такую ошибку. Всё делал по твоей инструкции. В чём может быть причина? Там скрипт час назад обновлялся. Может, разработчик криво обновил ControlNet? Loading model: control_canny-fp16 [e3fe7712] Loaded state_dict from [E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\extensions\sd-webui-controlnet\models\control_canny-fp16.safetensors] Error running process: E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\controlnet.py Traceback (most recent call last): File "E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\modules\scripts.py", line 386, in process script.process(p, *script_args) File "E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\controlnet.py", line 612, in process else self.build_control_model(p, unet, model, lowvram) File "E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\controlnet.py", line 471, in build_control_model network = network_module( File "E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\cldm.py", line 63, in __init__ config = OmegaConf.load(config_path) File "E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\venv\lib\site-packages\omegaconf\omegaconf.py", line 187, in load with io.open(os.path.abspath(file_), "r", encoding="utf-8") as f: FileNotFoundError: [Errno 2] No such file or directory: 'E:\\Moi Skachki\\stable-diffusion\\stable-diffusion-webui\\models\\cldm_v15.yaml'
@@lilith4456 Да, почему то мой ответ удалился, видимо из-за ссылки. Вообщем, проблема в кривом апдейте, разраб в скрипте по путям к исполнительным файлам ошибки допустил. Накатил версию до апдейта и всё заработало.
Спасибо большое за обзор этого расширения! Действительно, это очень сильно упрощает работу и создание действительно качественных работ, а так же для "перерисовки" фотографий людей и так далее. И как дополнение для тренированных hypernetwork моделей.
*Это расширение сразу же улучшило мои изображения))*
Нам не нужно 4 пальца на руке персонажа, нам нужно пять! )
Губу раскатал!
Тут народ негодует что ИИ не может письки нормально делать, а ты про пальцы :)
@@User-pq2yn, вот вареники-то она хорошо делает.
@@Sky_Eagle не натурально как-то :)
@@User-pq2yn 😁
более лучшее))
Красавчик) приятно посмотреть, английский чуток надо подтянуть) но все по фактам! Подписался 🤙🏻
Хорошая рекомендация, но это больше подходит для тех, кто работает на поток.
Для тех, кто использует SD в качестве развлечения, преимущества перед встроенные Inpaint and Sketch не очевидны. Предлагаемые функции, на мой взгляд, даже излишне. Любое фото перед загрузкой в Inpaint готовится в Photoshop (можно и без него) за 2 минуты: меняем размер фото --> блюр или карта шумов --> при необходимости отдельным файлом делаем маску --> загружаем в Inpaint. Качество получается просто фантастическое, особенно если грамотно проработать карту шумов.
Также, можно из без предварительной обработки сразу закинуть фото и генерировать из нее что угодно.
Единственное, что заинтересовало из рассмотренных функций - это карта нормалей.
не совсем понял что именно вы делаете в фотошопе перед inpaint. Можете чуть подробнее рассказать?
1:46 на фоне мелодия похоже на «я волна, новая волна, по домой»
В общем.. сколько я не интересовался-никто не хочет говорить или (не знает?) как использовать control temporalnet -можно ли его использовать в облаке?? И тоже про новый facecontrol - И опять же тот вопрос??Заранее спасибо!
Спасибо большое. Сделай пожалуйста видос про t2i Адаптеры. Если с Color adapter и Style adapter я более менее разобрался, то со Sketch адаптером не понятно с каким препроцессором использовать. А еще есть keypose adapter, который корректнее, чем openpose распознает позы
Еще может понадобится установить такие вещи (запускать в cmd в папке со stable-diffustion)
pip install opencv-python
pip install gradio==3.16.2
у меня тоже контрол нет ошибки сыпал)) гайд на видео по установке не полный...
Судя по тому что вы в видео сказали в конце первой минуты, у вас 4 пальца на руке, как и у всех ваших персонажей
Скажи, пожалуйста, а откуда такой интерфейс у самого Stable Diffusion, спасибо
Вышел OpenPose Editor для Control NET - интерактивный позинг внутри интерфейса SD.
Уже сделал видос по нему! - th-cam.com/video/IngkQBDK16k/w-d-xo.html
1:00 А мне надо, чтобы у людей было именно по 5 пальцев на руке, не по 4.🤔
Когда ставлю на поток обработку множества фото для видео он начинает так медленно работать что писец . есть какое-то решение ?
Добрый день! все сделала как в видеоуроке, все легко и доступно) но у меня постоянно выскакивает ошибка "Warning: ControlNet failed to load SGM - will use LDM instead"..как это исправить ума не приложу. Может кто то с этим сталкивался?
Сделай пожалуйста видео как установить stable diffusion.
Оу бро, я думал на Ютубе итак полно видео по установке сд. Мне кажется оно у меня будет не актуально на канале 🙄
@@tolstikovpro Спасибо за ответ. я пробовал по три разным каналам но у меня не получилось
@@hellastv у тебя выдаёт ошибку error 1 при запуске?
Я видимо где-то прослушал. Но что есть "Annotator Resolution" в pose препроцессоре? За что отвечает эта настройка? (Выяснить на опыте возможностей мало ибо 1050ti генерит 3-4 картинки дольше чем идет это видео...)
Разработчик рекомендует ставить annotator resolution на то же значение что и в родном width или будут проблемы пишет он. Я честно говоря не видел проблем что при повышении значений в этой графе что при понижении. Разберусь если сниму еще одно видео, сейчас кстати обновили control net добавили интересную фичу очень
@@tolstikovpro "в родном" ты имеешь ввиду, в том, что указан на картинке с которой будет извлекаться поза?
@@randommontage3922 в родном это в входном img2img. Я про разрешение.
И у меня такая древность. С контролнетом отказывается работать из-за нехватки ее памяти...
Бро как ручной установить gfpgan сделай видео инете вообще нету ни анг ни руском
Вижу на видео ту же проблему, которую не могу решить сам. Это оружие в руках персонажа. Вместо мечей в руках какая-то хренотень непонятная, даже в img2img. Я уже просто реально запарился - как заставить нейронку рисовать нормальное оружие в руках???
Скорее всего никак, она криво рисует оружие, пальцы, сигареты )) а может это у нее такая цензура 😁
@@tolstikovpro цензура на руки и сигареты, но не на порнуху с цп которую можно в промтах выдать, умно
Подскажите пожалуйста, в какую папку сохраняются карты глубины и прочие втотичные сгенерированные картинки? Например для карт глубины в настройках по умолчанию стоит папка "stable-diffusion-portable-main\extensions\sd-webui-controlnet\detected_maps" но захожу туда, а там пусто
А если перетащить или сохранить прямо из окна интерфейса SD ?
@@tolstikovpro да, так получается, но я нашел где собака зарыта. В настройках выбираешь ControlNet и ставишь галку в чекбоксе "Allow detectmap auto saving"
@@tolstikovpro кстати все сгенерированные КонтролНэтом картинки все равно кэшируются в папке tmp, в корневой папке Автоматика. Так что не забываем чистить
Как ты установил темную тему? Открой секрет пжпж
Я сам не знаю, пытался вспомнить но так и не нашел. Причем при переустановке черная тема опять включается, найду скажу ))
В webui-user.bat set COMMANDLINE_ARGS=--xformers --autolaunch --theme=dark
это зависит от темы винды
можно в настройках браузера включить тёмную тему, тогда в дифужине тоже включится
Нефига этот ControlNet не появляется. И почему у других всегда все так легко получается?
Скажи, решилась проблема? Тоже не появляется эта вкладка
@@НикитаКиселев-и2я Когда заного установил диффузию, контрол заработал. Но это когда было-то?
У меня при попытке установить controlnet по ссылке выдаёт ошибку(
AssertionError: Extension directory already exists:....
Тоже самое .
@@TokisakiLark я разобрался)Это не ошибка. Нужно указать только одну ссылку -- на контрол-нет, а в поле для указания папки для установки вообще ничего не писать - программа сама знает куда устанавливать)
У меня выдаёт вот такую ошибку. Всё делал по твоей инструкции. В чём может быть причина? Там скрипт час назад обновлялся. Может, разработчик криво обновил ControlNet?
Loading model: control_canny-fp16 [e3fe7712]
Loaded state_dict from [E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\extensions\sd-webui-controlnet\models\control_canny-fp16.safetensors]
Error running process: E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\controlnet.py
Traceback (most recent call last):
File "E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\modules\scripts.py", line 386, in process
script.process(p, *script_args)
File "E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\controlnet.py", line 612, in process
else self.build_control_model(p, unet, model, lowvram)
File "E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\controlnet.py", line 471, in build_control_model
network = network_module(
File "E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\cldm.py", line 63, in __init__
config = OmegaConf.load(config_path)
File "E:\Moi Skachki\stable-diffusion\stable-diffusion-webui\venv\lib\site-packages\omegaconf\omegaconf.py", line 187, in load
with io.open(os.path.abspath(file_), "r", encoding="utf-8") as f:
FileNotFoundError: [Errno 2] No such file or directory: 'E:\\Moi Skachki\\stable-diffusion\\stable-diffusion-webui\\models\\cldm_v15.yaml'
решили проблему?
@@lilith4456 Да, почему то мой ответ удалился, видимо из-за ссылки. Вообщем, проблема в кривом апдейте, разраб в скрипте по путям к исполнительным файлам ошибки допустил. Накатил версию до апдейта и всё заработало.
Фиговая ссылка на модели. Адблок её пригасил
А у нас адблок нынче что. Какой то пантовый антивирус или что?))) отключи и открывай ссылку смело. Я ее просто сократил чтобы не длинная была
@@tolstikovpro фиговая сокращалка, видать слишком рекламная для комфортного юза
но это только с телефона, комп прошёл без проблем
R ?
Почему он говорит про Канье😁
скажи паровозик тыр тыр тыр
Остряк. )) Возьми с полки печеньку за смешную шутку