Привет, большое спасибо за твои туторы! Вопрос по этому видео в твоём телеграме: при скачанной (то что ты выложил) и выбранной модели instruct-pix2pix мне выдаёт ошибку в img2img: TypeError: cat() received an invalid combination of arguments - got (list, Tensor), but expected one of: * (tuple of Tensors tensors, int dim, *, Tensor out) * (tuple of Tensors tensors, name dim, *, Tensor out) В чём может быть дело? экстеншн пикс2пикс не установлен (ну я так понял он уже и не нужен), Cent браузер, ВАЕ включён, пробовал удалять --xformers --autolaunch из батника webui-user.bat - тоже не помогло. Спасибо.
Скажу не про контент. Потому что по нему всё и так ясно - он качественный, для русскоязычной аудитории вообще бесценен. Скажу про автора. Очень приятно наблюдать за ростом его профессионализма. В первых видео речь была сбивчивой, слушать было сложно. Много монологов, которые уводили в сторону, после которых зритель терял суть и концентрацию. Я отсматривал ролики в порядке выхода и отметил для себя, что видео смотреть всё приятнее. Автору удалось сохранить баланс между юморной подачей, своим характером и важностью информации, которую доносит. Желаю автору и дальше совершенствовать своё неповторимый подход. Взятое направление совершенно точно правильное. Увидел новое видео и совершенно искренне порадовался, что смогу узнать что-то новое с интересной подачей.
@@denis.w663 будет =) А сумбур и отход от темы или вода, это Вам, ребят, надо послушать про бэкстейдж, чтобы понять, почему Я могу временно соскочить с темы, чтобы ответвления были раскрыты сразу же, чтобы не возвращаться. Часто люди оценивают исключительно с точки зрения себя. Не зрителя. А себя. А если встать на место среднестатистического зрителя, то многое сразу станет понятно. Всегда пытаешься уместить как можно больше и говоря о чём-то, точно знаешь, что будет вопрос. Поэтому не уходишь от темы, а традиционно: Сказал А, говори Б, потом возвращаешься к теме. Кто-то улавливает, а кому-то сложно держаться на мысль. Все разные ┐('~`;)┌ В этом видео ирония в том, что Я забываю переключать модель, одновременно с этим уяснив для многих, что не нужно писать про ошибки внизу и говорить, что ничего не генерируется. Нужно внимательно смотреть, что делаешь и не забывать переключать модель. Убили 2 зайца. И посмеялись и запомнили, что не нужно тупить, а делать всё внимательно, а не так, как автор. Все в выигрыше. Но не все видео можно делать с такой подачей, ибо Я никогда не придумываю сценарии, а просто сажусь и пишу видео. У Меня нет времени ещё и на сценарии. Если буду выделять время на сценарии, то времени на другое будет меньше.
@@XpucT "Всегда пытаешься уместить как можно больше и говоря о чём-то, точно знаешь, что будет вопрос. Поэтому не уходишь от темы, а традиционно: Сказал А, говори Б, потом возвращаешься к теме." - Хачатур, всегда нравилось это в твоих видео. Назвать это "водой" - язык не поворачивается. Наоборот, полезное дополнение к прилагаемому материалу.
На 12:16 когда про***лся тент - это опять была не та модель. Поэтому: 1. приложение 100% рабочее, я проверял на всём. Более того, я как веб-дизайнер подгружаю в него скриншот понравившегося сайта и оно меняет на нужные мне цвета. За 5 минут - идеальный дизайн (хоть и заимствованный). Это супер. 2. Спасибо. Спасибо. Низкий поклон за ТРУД.
я получаю невыразимое удовольствие от ваших роликов. особенно от примечаний* *ну или от того, что типа вырезано, но не вырезано. это прекрасно! это просто прекрасно! ура!
Классное видео! Давно присматривался к этому расширению, даже пробовал что-то изобразить, но получилась шляпа, а адекватный туториалов в сети было оч мало. Спасибо, что все объяснил)
Черно белые моменты 💥 Классный ролик) Спасибо Хачатур, как всегда интересно и информативно))) У меня получилось все, но вот если не забывать переключать модели)
Это просто супер. Христ, ты не просто поднял мне настроение, а вытянул из такого нудного и трудного дня. Как я Обажаю твои Ч/Б вставки, а особенно угараю со вставок про файерфокс. Так как я в основном им пользуюсь. Из-за того, что гугл не даёт ставить нужные мне расширения. А Cent Юзаю для Stable-Diffusion. Вот бы видеть бекстейджи полные на бусти. Ну и да. Видео как всегда полезное. Особенно, когда есть ошибки, так как ты реально сталкиваешся с тем, с чем можем столкнуться точно так же и мы. Всё мы человеки, но даже Боженька может ошибаться =)
Пытался использовать этот инструмент в работе, но результатами остался не удовлетворен от слова "совсем", разработчику действительно предстоит еще большая работа над расширением, но потенциал у этой штуки и правда есть. А видос очень угарный получился) Спасибо за Ваш контент!
Во вкладке img2img есть такой параметр как denoising strength, из-за него и такая разница с вкладкой pix2pix получилась. Сам pix2pix полезен тем, что сохраняет форму в отличии от базового img2img. Так что и примение к нему такое: поменять стиль, различные цвета (волосы, кожа, одежда), фасон одежды. Особенно удобно если использовать вкупе с inpaint и depth mask.
@@Velanteg пускай хотя бы сделают в inpaint ластик, по типу как в фотошопе можно в маске белым или черным рисовать, а то я запарился кликать undo, да и в микроокошке работать неудобно и горячих клавиш нет
Вот примерно так же и я забывал переключать модели, и даже когда не забывал, примерно так же получалась по большей части хрень. Впрочем потанцевал у расширения явно есть, желаю разрабам удачи. За видос спасибо.
спасибо за видео и за инфу о расширении! Пара моментов: у расширения особого будущего по-видимому нет, потому как на страничке в гитхабе большими буквами написано DEPRECATED :) на видео у автора канала это тоже есть (видимо проглядел). в списке доступных расширений тоже помечено, что ставить его(pix2pix) отдельно нужды нет. хз в общем. по-моему будет работать и так. но за видос по-любому респект!
Вот это прям совсем неожиданное видео :О как раз пару дней мучаюсь с этим дополнением пытаяся провернуть подобие "image segmentation" что спрашивал в видео про img2img. Но что-то вяло, пробовал даже Playground AI где вроде как это лучше реализовано но увы и там провал ... P.S. Вставки огонь ) P.S.S. не 4 а 5 раз :D
Блин, улыбка теперь на весь день))) Спасибо огромное за полезное видео и за хорошее настроение! Автоматику нужно добавить возможность ставить рядом с выбором модели огромный красный флаг с надписью "ПОМЕНЯЙ МОДЕЛЬ!" для нас, белочек 😂
У меня расширения вообще не ставятся на коллабе. Вкладки не появляются, ни Dreambooth, ни pix2pix. В папках они есть, но на вкладке не отображаются. При этом аргументов в батнике нет. А в консоли нет ошибок.
Развивайте память, а то будет как у белки) Расширение лично меня не особо заинтересовало, но видео посмотрел с огромным удовольствием, спасибо Хачатур!
Кстати, из любой модели можна сделать инстракт модель. Помогает не сильно, но на будущее думаю может быть полезным, когда допилят до состояния полной функциональности.
Поставить pix2pix не удалось, у меня в списке доступных расширений его почему то нет, да и .. с ним. Но видео потрясное, подача материала у Хачатура, просто песня.
После этого видео сразу становится понятно, что никакой "мощной и универсальной" сети не стоит ждать. Скорей всего будет добротная сеть, которая будет обрастать множеством "дополнений", каждое из которых способно решить хорошо свою узкую задачу. Эдакий "нейро фотошоп". Конечно, самое интересное - создавать свои собственные "дополнения" под свои собственные задачи, которые могут быть очень специфичные. И поэтому, возникает потребность учиться создавать именно такие собственные модели, инструменты, которые могут хорошо сделать своё, и что не может сделать другая сеть или человек
Я подумал ты не сделаешь видео ты сказал типо не удивил но видео тут как тут Это штука полезна для смены погоды например и чего либо такого то что промптами сложно объяснить
ааааааааа - супер, а то смотрел буржуев по pix2pix, у них вообще всё пресно, и топорно... вот со снегом у меня как раз и засада - беру допустим фото машины - там дорога и лето, пишу snow или car in snow, на стандартных CFG он машину вообще собака не трогает, добавляет снег только на землю - если меняю ползунки в CFG - он начинает менять стены домов на деревья либо машина становится не похожа
Подскажите, пожалуйста версию с интерфейсом из видео урока - инструкцию, гайд, где скачать, всё что направит на путь истинный. Я Так понимаю, это веб интерфейс через браузер и сама программа установлена на комп? У меня программа установлена на комп, интерфейс намного беднее и нет тех вкладок, на которых собственно и строится урок. Спасибо заранее
В каждом видео есть подсказка в правом углу на ту версию, что Я сам делаю. Под каждым видео есть ссылка на Boosty, где есть Мой авторский UI и Мои конфиги.
@@XpucT скажите пожалуйста принцип обновления - ваша сборка сама обновляется? А экстеншены?... Дошел до высокого уровня благодаря вам на 90 % (ControlNet уже вовсю юзаю для видео), а базовых принципов многих не понимаю. Еще примерно такой же момент - экспериментировал-вырубал инет, ваша stable-diffusion-portable-main работает и без него, но в консоли видно сразу, что инет пропал. Так вот, насколько он нужен для этой сборки, только для скачивания нового? А если допустим плагин(экстеншен) обновится и начнет глючить, можно ли как то откатить и так далее и тому подобные "вопросы для продвинутого чайника" Мне кажется, хорошая тема для вашего нового ролика ))) Спасибо!
добрый день. при обработке фоток в train прога никак не может сделать нормально глаза.. всегда размыты. хотя на исходных фото четкие и освещенные.. есть какой то выход и в чем может быть проблема? спасибо за ответ
А если смешать делиберейт и pix2pix модели, получится лучше? Я попробовал, смешал 2 гигабайтный pix2pix с делиберейтом, работает, но в txt2img он не генерирует ничего, так как видимо диалоговая часть мешает. Чтобы p2p лучше работал, нужно стараться сущность как можно точнее текстом описать чтобы отделить её от окружения. У меня например сработало: Change the girl's dress into a black dress.
Смешанная модель использует ресурсы и диалоговой части и референсы делиберейта, так как во всех трёх моделях на одном сиде получаются разные результаты. Поэтому, можно экспериментировать, создавать новую модель диалоговую с хорошей графической базой, если в правильных пропорциях смешать модели.
Здравствуйте, Хачатур. В мидджорней можно создавать комиксы. Это удобно в том плане, что один и тот же персонаж(и) могут быть в разных локациях, позициях. Вроде, можно уникальное имя и фамилию ввести и они закрепляются. Можно ли подобное делать в стейбл? Чтобы создать персонажа, а потом его использовать под разными ракурсами, одеждой, позах, локациях и т.п.
Добрый день. Можно. Стиль комиксов есть у Меня в списке стилей (на Boosty). А чтобы менять позы и прочие движения, есть img2img. На канале есть видео, а на Boosty есть 3 дополнительных материала к нему.
Здравствуйте, столкнулся с такой вот ошибкой при запуске Stable Diffusion Warning: caught exception 'No CUDA GPUs are available', memory monitor disabled No module 'xformers'. Proceeding without it. Помогите с решением пожалуйста.
Спасибо за инфу, но когда пыталась повторить, мне выдает ошибку... Что не так делаю, сама ни разу не программист... TypeError: argument of type 'NoneType' is not iterable
Большое спасибо за видео! Хотелось бы конечно что-то из разряда имг2имг без изменения геометрии/черт лица. Хороший пример это нейронные сети для создания персонажа по фото, оно делает картинку похожей но при этом не перебивает оригинальное кадрирование/ черты лица а сохраняет их Так реально сделать?) (не досмотрев ролик писал комментарий, очень похоже на то что я писал) Добавлю что я заметил, CFG связан с размером семпла Таким образом к примеру КФГ 7 , 30 шагов Если повышаем КФГ оно будет генерировать в каждый шаг более конкретное изображение, но если повысить количество шагов, можно скомпенсировать данный эффект потому что шаги это выступает в роли разбивки для КФГ, но это лишь мои наблюдения которые я проверял на зафиксированном сиде и получая одинаковые результаты к примеру с 15 кфг и 100 семплов и 5 кфг 30 семплов, но разные результаты с 5кфг 100 семплов и 15 кфг 30 семплов)
Ну главный секрет, это после 40 минут мучений громко проматериться, сказать " ЩАС удалиЮ это х*ню, последний раз пробую!", и тогда работает, но этот надо каждый раз повторять.. пока сыровато ...
Подскажите пожалуйста, я вот хочу раскадрировать серию сериала и отправить в stable diffusion и удалить через нее хардсабы, есть ли возможность удалять текст в stable diffusion?
У меня беда, я установил все по инструкции, но когда переключаю модель на pix2pix у меня UI просто крашится . в консоли видно команду запуска файла модели и никаких ошибок. просто "для продолжения нажмите клавишу" и выходит после нажатия клавиши. в UI на месте где выбираем модель красными буквами и капсом ERROR. Хз вобще че это такое( а моделька очень нужная и полезная. посоветуйте, че делать?
Друг, подскажи, что делать, OutOfMemoryError выскакивает, пишет не может найти 900 мб памяти, хотя тратит всего 4,6 гигов из 6 доступных. 3060 для ноутбуков. Не все функции могу использовать, и чувствую что страдаю от нехватки деталей во время генерации. Максимум разрешения выставляю 1280 х 720, либо свопаю для вертикали.
Я когда увидел пост на Пикабу буквально через день-два сразу побежал тестить. У меня был стилизованный солдафон на переднем плане, который идёт через просеку, а сзади 2 грузовых транспортёра. Была зима, ставил лето. То трава, то песок, но у машин на капоте был снег. Что только я не делал, чтобы его убрать - машины он не хотел видеть, но потом я нажал кнопку на получение описания изображения и оказалось, что система вроде читает их как не car, а как vehicle и стало даже что-то заменять
Прошу совета, где прочитать или посмотреть про скобки, и как веса эти распределяются когда пишешь (цифры1:3) (какая цифра к чему относится?) и квадратные скобки для чего? Благодарю. Христ спасибо за уроки, очень ценно.
Посмотреть видео: th-cam.com/play/PL05SB3rBbUsprkMgH3yDV12MuuIbO5KEq.html Нужно смотреть все видео последовательно и целиком. На все Ваши вопросы уже был ответ. Причём очень подробный.
@@serpotapov я и на бусте все видео просмотрел. И на ют. Либо не дополнял, либо это было в начале и я упустил. А вообще конспект завел :) Если не сложно, было бы здорово если бы вы указали конкретный ролик. В данный момент нет возможности пересмотреть заново каждый часовой ролик.
VAE примерно на 4% поднимает качество любого выходного изображения. Если юзать модель Deliberate, то МФУ не нужен, он уже встроен. Не пропускайте видео: th-cam.com/play/PL05SB3rBbUsprkMgH3yDV12MuuIbO5KEq.html
Привет, подскажи нубу пожалуйста, как на твою версию поставить dreembooth, а то ругается на отсутствие модуля tensorflow. установка через pip на локальный python и переключение на него в батнике старта что-то не дает результата положительного
Ну камон! Включил RandomCFG и он 1.79 стал, разумеется майка выстиранная получилась. Интересный инструмент, но ещё больше возможностей для ошибок. И модель сменить не забыть и промпты и ДВА CFG, вместо одного. Хотябы Дифужена нет, а то вообще грусть была бы параметрическая.
После просмотра этого ☝видео , логично обновить для себя информацию в Telegram ➜ t.me/win10tweaker/272
Привет, большое спасибо за твои туторы!
Вопрос по этому видео в твоём телеграме: при скачанной (то что ты выложил) и выбранной модели instruct-pix2pix мне выдаёт ошибку в img2img:
TypeError: cat() received an invalid combination of arguments - got (list, Tensor), but expected one of: * (tuple of Tensors tensors, int dim, *, Tensor out) * (tuple of Tensors tensors, name dim, *, Tensor out)
В чём может быть дело? экстеншн пикс2пикс не установлен (ну я так понял он уже и не нужен), Cent браузер, ВАЕ включён, пробовал удалять --xformers --autolaunch из батника webui-user.bat - тоже не помогло. Спасибо.
Это самое смешное видео на этом канале, особенно в ч/б вставках с реакцией))))😄🤣🤣👍
Скажу не про контент. Потому что по нему всё и так ясно - он качественный, для русскоязычной аудитории вообще бесценен. Скажу про автора. Очень приятно наблюдать за ростом его профессионализма. В первых видео речь была сбивчивой, слушать было сложно. Много монологов, которые уводили в сторону, после которых зритель терял суть и концентрацию. Я отсматривал ролики в порядке выхода и отметил для себя, что видео смотреть всё приятнее. Автору удалось сохранить баланс между юморной подачей, своим характером и важностью информации, которую доносит.
Желаю автору и дальше совершенствовать своё неповторимый подход. Взятое направление совершенно точно правильное. Увидел новое видео и совершенно искренне порадовался, что смогу узнать что-то новое с интересной подачей.
🙏
Было збс и сейчас збс и будет ...надеюсь...
@@denis.w663 будет =)
А сумбур и отход от темы или вода, это Вам, ребят, надо послушать про бэкстейдж, чтобы понять, почему Я могу временно соскочить с темы, чтобы ответвления были раскрыты сразу же, чтобы не возвращаться. Часто люди оценивают исключительно с точки зрения себя. Не зрителя. А себя. А если встать на место среднестатистического зрителя, то многое сразу станет понятно. Всегда пытаешься уместить как можно больше и говоря о чём-то, точно знаешь, что будет вопрос. Поэтому не уходишь от темы, а традиционно: Сказал А, говори Б, потом возвращаешься к теме. Кто-то улавливает, а кому-то сложно держаться на мысль. Все разные ┐('~`;)┌
В этом видео ирония в том, что Я забываю переключать модель, одновременно с этим уяснив для многих, что не нужно писать про ошибки внизу и говорить, что ничего не генерируется. Нужно внимательно смотреть, что делаешь и не забывать переключать модель. Убили 2 зайца. И посмеялись и запомнили, что не нужно тупить, а делать всё внимательно, а не так, как автор. Все в выигрыше. Но не все видео можно делать с такой подачей, ибо Я никогда не придумываю сценарии, а просто сажусь и пишу видео. У Меня нет времени ещё и на сценарии. Если буду выделять время на сценарии, то времени на другое будет меньше.
Это называется "просто привык". Я как с первых роликов нормально речь Хачатура воспринимал, так и сейчас воспринимаю. Особой разницы не замечаю.
@@XpucT "Всегда пытаешься уместить как можно больше и говоря о чём-то, точно знаешь, что будет вопрос. Поэтому не уходишь от темы, а традиционно: Сказал А, говори Б, потом возвращаешься к теме." - Хачатур, всегда нравилось это в твоих видео. Назвать это "водой" - язык не поворачивается. Наоборот, полезное дополнение к прилагаемому материалу.
Такой орный тутор, пару раз прям в голос!) Спасибо за полезную новую информацию и твою бомбическую подачу!
при том, что ты сидишь и видишь как Хачатур забыл переключить модель и ждёшь его батхёрта, именно так выглядит кринж.
огромный лайк за естественные геги и монтаж - это твоя уникальная фишка, не потеряй ее в будущем.
Хачатур спасибо, повеселил )))
Вставки, мне нужно больше вставок, они божественны, + 200% к моему настроению👍, спасибо за видео.
На 12:16 когда про***лся тент - это опять была не та модель.
Поэтому:
1. приложение 100% рабочее, я проверял на всём. Более того, я как веб-дизайнер подгружаю в него скриншот понравившегося сайта и оно меняет на нужные мне цвета. За 5 минут - идеальный дизайн (хоть и заимствованный). Это супер.
2. Спасибо. Спасибо. Низкий поклон за ТРУД.
я получаю невыразимое удовольствие от ваших роликов. особенно от примечаний*
*ну или от того, что типа вырезано, но не вырезано. это прекрасно! это просто прекрасно! ура!
Это самое ржачное видео. Я в восторге!!! 😁
Автор - красава! Так ЗАРАЗНО рассказывает, что у меня уже в рекомендациях процентов 40% только его видосов! Что ты со мною делаешь?! Респект!
Модель менять не забывай!)
Шикарные видео, очень интересная и развевающаяся тема. Спасибо за уроки! +Подписчик
Ахаха! Ё.. дефорум!)))) По больше таких вставок!))) Это бомба!
Спасибо, поржал))) За юмор пять!)) За расширение неуд))
очень круто!! спасибо за чёткий рассказ. уже баловаюсь во всю
Классное видео! Давно присматривался к этому расширению, даже пробовал что-то изобразить, но получилась шляпа, а адекватный туториалов в сети было оч мало. Спасибо, что все объяснил)
Ты идеальный препод, я так давно не смеялся)))
Бесподобный контент!!! Спасибо вам большое, дяденька))
Это однозначно лайк, очень ценную информацию представляешь! ;)
Черно белые моменты 💥 Классный ролик) Спасибо Хачатур, как всегда интересно и информативно))) У меня получилось все, но вот если не забывать переключать модели)
Такой монтаж хорошее дополнение к видео "чудо в 1 клик" 👍
Я ржал с видоса! чб-вставки - шик)))) автор красава! скрипт норм)
Как всегда все по красоте! За юмористические вставки отдельное спасибо!)
Это просто супер. Христ, ты не просто поднял мне настроение, а вытянул из такого нудного и трудного дня.
Как я Обажаю твои Ч/Б вставки, а особенно угараю со вставок про файерфокс. Так как я в основном им пользуюсь. Из-за того, что гугл не даёт ставить нужные мне расширения.
А Cent Юзаю для Stable-Diffusion.
Вот бы видеть бекстейджи полные на бусти.
Ну и да. Видео как всегда полезное.
Особенно, когда есть ошибки, так как ты реально сталкиваешся с тем, с чем можем столкнуться точно так же и мы. Всё мы человеки, но даже Боженька может ошибаться =)
Да, думаю, будет выходить такое чаще. Всё будет зависеть от серьёзности темы =)
о господи это просто гениальный контент который я и искал
пользовался стейблом ранее но были краши
у тебя скачал все идеально получается
В Telegram обновление 👍
спасибо поржал - полезно и смешно👍
Лицо охреневшего преподавателя от результата божественно
Пытался использовать этот инструмент в работе, но результатами остался не удовлетворен от слова "совсем", разработчику действительно предстоит еще большая работа над расширением, но потенциал у этой штуки и правда есть. А видос очень угарный получился) Спасибо за Ваш контент!
Христ, покажи как работать в LoRA, пожалуйста!
Я предполагал, что с памятью у меня бывают проблемы, но сегодня я в этом убедился целиком и полностью..
как у белки, ахахахх
Я бы хотел чтоб у меня было побольше в жизни таких учителей как Вы😂
Во вкладке img2img есть такой параметр как denoising strength, из-за него и такая разница с вкладкой pix2pix получилась.
Сам pix2pix полезен тем, что сохраняет форму в отличии от базового img2img. Так что и примение к нему такое: поменять стиль, различные цвета (волосы, кожа, одежда), фасон одежды. Особенно удобно если использовать вкупе с inpaint и depth mask.
@@Velanteg пускай хотя бы сделают в inpaint ластик, по типу как в фотошопе можно в маске белым или черным рисовать, а то я запарился кликать undo, да и в микроокошке работать неудобно и горячих клавиш нет
Вот примерно так же и я забывал переключать модели, и даже когда не забывал, примерно так же получалась по большей части хрень. Впрочем потанцевал у расширения явно есть, желаю разрабам удачи. За видос спасибо.
Спасибо за вашу работу!
Ох уж этот деформ)
у тебя поднялся уровень создание видео, так держать
спасибо за видео и за инфу о расширении! Пара моментов: у расширения особого будущего по-видимому нет, потому как на страничке в гитхабе большими буквами написано DEPRECATED :) на видео у автора канала это тоже есть (видимо проглядел). в списке доступных расширений тоже помечено, что ставить его(pix2pix) отдельно нужды нет. хз в общем. по-моему будет работать и так. но за видос по-любому респект!
Вот это прям совсем неожиданное видео :О как раз пару дней мучаюсь с этим дополнением пытаяся провернуть подобие "image segmentation" что спрашивал в видео про img2img. Но что-то вяло, пробовал даже Playground AI где вроде как это лучше реализовано но увы и там провал ...
P.S. Вставки огонь )
P.S.S. не 4 а 5 раз :D
Почему я так угораю)))) Фейлы прикольные)))
ой, давно так не смеялся. спасибо.
Главное не забывать переключать модели. Надо авторам расширения добавить возможность использовать его без переключения моделей
Блин, улыбка теперь на весь день))) Спасибо огромное за полезное видео и за хорошее настроение! Автоматику нужно добавить возможность ставить рядом с выбором модели огромный красный флаг с надписью "ПОМЕНЯЙ МОДЕЛЬ!" для нас, белочек 😂
Спасибо! Ну ты кадр =))) Класс!
12:05 а не получилось-то почему? потому что мы снова забыли сменить модель.
память как у белки 😂😂🤣🤣🤣🤣🤣🤣 ОРУУУ )))) Спасибо за инструмент ))
Лучший выпуск, ору со вставок в ч/б фоне) "я вот в ахуе, честно"
Лучший
Еееееееее🤘Deforum вспомнил..))
У меня расширения вообще не ставятся на коллабе. Вкладки не появляются, ни Dreambooth, ни pix2pix. В папках они есть, но на вкладке не отображаются. При этом аргументов в батнике нет. А в консоли нет ошибок.
Развивайте память, а то будет как у белки) Расширение лично меня не особо заинтересовало, но видео посмотрел с огромным удовольствием, спасибо Хачатур!
На третий раз я уже сам кричал МОДЕЕЕЛЬ. Соседей напугал)
Какое же угарное видео =)))) .
Буду я сейчас ставить этот плагин ?
- Конечно же нет
Посмотрю я это видео ещё раз ?
- Конечно же да, лайк =) 😅🤣😂
как обычно топовый контент
пс. дико угарал с моделей)
постоянно ржу с твоих реакций :D
О! Это было очень смешно! Спасибо! :)))
Все правильно Хачатур, ругай нас, а то у нас память как у рыбки 😂😂😂
воот, воот! я тоже самое говорю, когда Палатки по туториалам перекрашиваю))))
Спасибо, крутяк!
stable-diffusion-webui-instruct-pix2pix уже интегрировано в интерфейс автоматик, расширение больше не требуется , только модель
Верно
Большущее спасибо)
Кстати, из любой модели можна сделать инстракт модель. Помогает не сильно, но на будущее думаю может быть полезным, когда допилят до состояния полной функциональности.
ахахахха, чет с зимы проорал
Поставить pix2pix не удалось, у меня в списке доступных расширений его почему то нет, да и .. с ним. Но видео потрясное, подача материала у Хачатура, просто песня.
После этого видео сразу становится понятно, что никакой "мощной и универсальной" сети не стоит ждать. Скорей всего будет добротная сеть, которая будет обрастать множеством "дополнений", каждое из которых способно решить хорошо свою узкую задачу. Эдакий "нейро фотошоп". Конечно, самое интересное - создавать свои собственные "дополнения" под свои собственные задачи, которые могут быть очень специфичные. И поэтому, возникает потребность учиться создавать именно такие собственные модели, инструменты, которые могут хорошо сделать своё, и что не может сделать другая сеть или человек
Будем ждать когда допилят, пока скачивать не буду. С выпуска поржал, сапсибо. И понял, что я у меня памяти нет, все время забываю переключить модель😄
Я подумал ты не сделаешь видео ты сказал типо не удивил но видео тут как тут
Это штука полезна для смены погоды например и чего либо такого то что промптами сложно объяснить
Спасибо большое, Хачатур!)
1313
Спасибо за Ваш контент!
Круто, спасибо.
Не знаю как это сказать... У меня почему то нет pix2pix. В той вкладке, что на 0:50 показана. Что делать ?
У меня тоже иногда память как у белки!😂
Будет здорово , если эту функцию скрестят с inpaint или sketch!
Подскажете, какую версию ставить автоматик 11111 или лучше полная установка стебли дифьюжен, как вашем видео 6 месяцев назад?
ааааааааа - супер, а то смотрел буржуев по pix2pix, у них вообще всё пресно, и топорно...
вот со снегом у меня как раз и засада - беру допустим фото машины - там дорога и лето, пишу snow или car in snow, на стандартных CFG он машину вообще собака не трогает, добавляет снег только на землю - если меняю ползунки в CFG - он начинает менять стены домов на деревья либо машина становится не похожа
vehicle попробуй
Подскажите, пожалуйста версию с интерфейсом из видео урока - инструкцию, гайд, где скачать, всё что направит на путь истинный. Я Так понимаю, это веб интерфейс через браузер и сама программа установлена на комп? У меня программа установлена на комп, интерфейс намного беднее и нет тех вкладок, на которых собственно и строится урок. Спасибо заранее
В каждом видео есть подсказка в правом углу на ту версию, что Я сам делаю.
Под каждым видео есть ссылка на Boosty, где есть Мой авторский UI и Мои конфиги.
@@XpucT скажите пожалуйста принцип обновления - ваша сборка сама обновляется? А экстеншены?...
Дошел до высокого уровня благодаря вам на 90 % (ControlNet уже вовсю юзаю для видео), а базовых принципов многих не понимаю.
Еще примерно такой же момент - экспериментировал-вырубал инет, ваша stable-diffusion-portable-main работает и без него, но в консоли видно сразу, что инет пропал. Так вот, насколько он нужен для этой сборки, только для скачивания нового?
А если допустим плагин(экстеншен) обновится и начнет глючить, можно ли как то откатить и так далее и тому подобные "вопросы для продвинутого чайника"
Мне кажется, хорошая тема для вашего нового ролика )))
Спасибо!
Подскажите пожалуйста как повысить приоритет в промте? заранее спасибо
А вот не пропускайте видео:
th-cam.com/play/PL05SB3rBbUsprkMgH3yDV12MuuIbO5KEq.html
@@XpucT спасибо,разобрался. я в процессе как раз просмотра))
было бы круто если бы добавили функции пост обработки сгенерированной картинки
Как сделать такое же отображение генерации, у меня отображается при 20семплах только 2 состояния, и процесс по процентам скачет
добрый день. при обработке фоток в train прога никак не может сделать нормально глаза.. всегда размыты. хотя на исходных фото четкие и освещенные.. есть какой то выход и в чем может быть проблема? спасибо за ответ
Подскажите пожалуйста какую поставить сборку SD твоя с видос в ней ошибка вылетает ошибка при переходе в проводника на поиск картинки с Пк
Спасибо❤
А если смешать делиберейт и pix2pix модели, получится лучше? Я попробовал, смешал 2 гигабайтный pix2pix с делиберейтом, работает, но в txt2img он не генерирует ничего, так как видимо диалоговая часть мешает. Чтобы p2p лучше работал, нужно стараться сущность как можно точнее текстом описать чтобы отделить её от окружения. У меня например сработало: Change the girl's dress into a black dress.
И вот смешанная модель работает даже в img2img нормально.
Смешанная модель использует ресурсы и диалоговой части и референсы делиберейта, так как во всех трёх моделях на одном сиде получаются разные результаты. Поэтому, можно экспериментировать, создавать новую модель диалоговую с хорошей графической базой, если в правильных пропорциях смешать модели.
Про FireFox же обещали что-то в предыдущем выпуске :D
Четыре раза меня на смене модели подловили 😓
Здравствуйте, Хачатур.
В мидджорней можно создавать комиксы. Это удобно в том плане, что один и тот же персонаж(и) могут быть в разных локациях, позициях. Вроде, можно уникальное имя и фамилию ввести и они закрепляются.
Можно ли подобное делать в стейбл? Чтобы создать персонажа, а потом его использовать под разными ракурсами, одеждой, позах, локациях и т.п.
Добрый день.
Можно. Стиль комиксов есть у Меня в списке стилей (на Boosty).
А чтобы менять позы и прочие движения, есть img2img. На канале есть видео, а на Boosty есть 3 дополнительных материала к нему.
@@XpucT благодарю.
При генерации человека или персонажа их становится двое хоть и пишу что должен быть один что не так?
Здравствуйте, столкнулся с такой вот ошибкой при запуске Stable Diffusion
Warning: caught exception 'No CUDA GPUs are available', memory monitor disabled
No module 'xformers'. Proceeding without it.
Помогите с решением пожалуйста.
Спасибо за инфу, но когда пыталась повторить, мне выдает ошибку... Что не так делаю, сама ни разу не программист...
TypeError: argument of type 'NoneType' is not iterable
Большое спасибо за видео!
Хотелось бы конечно что-то из разряда имг2имг без изменения геометрии/черт лица. Хороший пример это нейронные сети для создания персонажа по фото, оно делает картинку похожей но при этом не перебивает оригинальное кадрирование/ черты лица а сохраняет их
Так реально сделать?)
(не досмотрев ролик писал комментарий, очень похоже на то что я писал)
Добавлю что я заметил, CFG связан с размером семпла
Таким образом к примеру КФГ 7 , 30 шагов
Если повышаем КФГ оно будет генерировать в каждый шаг более конкретное изображение, но если повысить количество шагов, можно скомпенсировать данный эффект потому что шаги это выступает в роли разбивки для КФГ, но это лишь мои наблюдения которые я проверял на зафиксированном сиде и получая одинаковые результаты к примеру с 15 кфг и 100 семплов и 5 кфг 30 семплов, но разные результаты с 5кфг 100 семплов и 15 кфг 30 семплов)
Сделай пожалуйста обзор расширения style pile
Ну главный секрет, это после 40 минут мучений громко проматериться, сказать " ЩАС удалиЮ это х*ню, последний раз пробую!", и тогда работает, но этот надо каждый раз повторять.. пока сыровато ...
Подскажите пожалуйста, я вот хочу раскадрировать серию сериала и отправить в stable diffusion и удалить через нее хардсабы, есть ли возможность удалять текст в stable diffusion?
Есть ли в СД инструмент, который позволяет генерировать картинку на основе двух предложенных картинок?
Пока нет, есть концепты, но они чёт требуют видюху с памятью в 24 гига
У меня во вкладке "Extensions" --> "Available" не отображается pix2pix. Что я делаю не так? Что сделать, чтобы он появился в этом списке?
Не пропускайте новости в Telegram:
t.me/win10tweaker/272
У меня беда, я установил все по инструкции, но когда переключаю модель на pix2pix у меня UI просто крашится . в консоли видно команду запуска файла модели и никаких ошибок. просто "для продолжения нажмите клавишу" и выходит после нажатия клавиши. в UI на месте где выбираем модель красными буквами и капсом ERROR. Хз вобще че это такое( а моделька очень нужная и полезная. посоветуйте, че делать?
Друг, подскажи, что делать, OutOfMemoryError выскакивает, пишет не может найти 900 мб памяти, хотя тратит всего 4,6 гигов из 6 доступных. 3060 для ноутбуков. Не все функции могу использовать, и чувствую что страдаю от нехватки деталей во время генерации. Максимум разрешения выставляю 1280 х 720, либо свопаю для вертикали.
Я когда увидел пост на Пикабу буквально через день-два сразу побежал тестить. У меня был стилизованный солдафон на переднем плане, который идёт через просеку, а сзади 2 грузовых транспортёра. Была зима, ставил лето. То трава, то песок, но у машин на капоте был снег. Что только я не делал, чтобы его убрать - машины он не хотел видеть, но потом я нажал кнопку на получение описания изображения и оказалось, что система вроде читает их как не car, а как vehicle и стало даже что-то заменять
Прошу совета, где прочитать или посмотреть про скобки, и как веса эти распределяются когда пишешь (цифры1:3) (какая цифра к чему относится?) и квадратные скобки для чего? Благодарю. Христ спасибо за уроки, очень ценно.
Посмотреть видео: th-cam.com/play/PL05SB3rBbUsprkMgH3yDV12MuuIbO5KEq.html
Нужно смотреть все видео последовательно и целиком. На все Ваши вопросы уже был ответ. Причём очень подробный.
@@serpotapov я и на бусте все видео просмотрел. И на ют. Либо не дополнял, либо это было в начале и я упустил. А вообще конспект завел :)
Если не сложно, было бы здорово если бы вы указали конкретный ролик. В данный момент нет возможности пересмотреть заново каждый часовой ролик.
Поясните "танкисту" что такое VAE и зачем оно надо? Я кажется пропустил этот момент.
VAE примерно на 4% поднимает качество любого выходного изображения.
Если юзать модель Deliberate, то МФУ не нужен, он уже встроен.
Не пропускайте видео:
th-cam.com/play/PL05SB3rBbUsprkMgH3yDV12MuuIbO5KEq.html
@@XpucT да упустил как то. Смотрел видос, но видимо не все усвоилось.
Привет, подскажи нубу пожалуйста, как на твою версию поставить dreembooth, а то ругается на отсутствие модуля tensorflow. установка через pip на локальный python и переключение на него в батнике старта что-то не дает результата положительного
Добрый день! Подскажите плз, в модель deliberate включены vae, т.е в настройках SD vae нужно ставить automatic?
так ведь это разве не t-shirt ?
скорее dress
T-shirt - безрукавка.
Ну камон! Включил RandomCFG и он 1.79 стал, разумеется майка выстиранная получилась.
Интересный инструмент, но ещё больше возможностей для ошибок. И модель сменить не забыть и промпты и ДВА CFG, вместо одного. Хотябы Дифужена нет, а то вообще грусть была бы параметрическая.