🔥 Мой структурированный курс по "AUTOMATIC 1111" с моей поддержкой на сайте stabledif.ru 🔑 Схема для ComfyUi и все ссылки на Boosty: 🍀 boosty.to/stabledif ✔Телеграм-канал: t.me/stabledif_lesson ✔ Telegram ЧАТ: t.me/stable_dif ✔VK Prompts: vk.com/stabledif
Для моей картинки (450x450) при дефолтных значениях не хватило 2 гиг (на карте 16). Уменьшил Encoder Tile Size -- качество не то. Вернул обратно. Уменьшил "Decoder Tile Size" до 128. Памяти хватило, качество улучшилось.
Спасибо за инструкцию, все получилось. Но Topaz AI делает это лучше и быстрее. Сравнил результаты от вашего метода и от Топаза. Stable сделал фото рисованным и отчасти исказил черты лица. А Топаз сохранил естественность, добавил немного текстуры на кожу, не исказил черты. У меня апскейл в Стэбле длился около 8 или 10 минут, а в Топазе секунд 20 на обработку и секунды 2-3 на сохранение. Выбор очевиден, но за альтернативу спасибо.
На рисовке, заметно, если светлое на темном фоне, у меня например яркая луна в ореоле на темно-синем ночном небе, оно отрисовывает контур ровным четким черным кругом, как циркулем, там где в оригинале замыливание по краям.
Классный метод апскейла. На gtx 1060 6gb работает, апскейлит даже при Encoder Tile Size 3072 и Decoder Tile Size 256э. Занимает по времени примерно минут 10.
@@EverythinggnihtyrevE "- за сколько? - за 3 года, условно." Это крайне маловероятно, но не дай Бог заграницей проверят твой пиратский сундук. (Дома еще ладно, это станет просто поводом посадить. А по факту плевать, так как если есть желание, то посадят и без пиратства.) Ну и ответ на твоем наречье: Что за орки тебя воспитали, в какой пещере ты рос и при каком африканском государственном строе? Конечно же все пиратят, но имеющие голову не говорят об этом прямо и тем более не призывают к этому. Но видимо там уже ни ума, ни совести. Вот так получилось, не принято у людей воровать, так родители воспитывают людей. А если видят, что растет бестолочь, хотя бы учат не кичиться нарушениями законов, не записывать видео вандализма, не писать о своем воровстве.
модель выбираю - грузится, но в итоге сбрасывается до изначальной, та же хня с вае рядом. При генерации выдает ошибку Runtime error: input type (torch.cuda.halftensor) and weight type (torch.halftensor) should be the same
Помогите пожалуйста решить проблему, сделал установил StableSR как вы рассказали, но при запуске генерации выдает ошибку AttributeError: 'NoneType' object has no attribute 'items'
А если нужна детализация текстуры лица? Сейчас учусь апскейлить с помощью ControlNet+Ultimate SD Upscale, но не всегда получается хороший результат. Тяжело заходит обучение без того, кто подскажет, но прям очень надо научиться вытаскивать хорошую кожу т.к. это надо для ретуши
при попытке выбрать скачанную модель 2.1 и так далее... выдает просто тонну ошибок и модель сбрасывается на предыдущую, не дает ее выбрать. NotImplementedError: No operator found for `memory_efficient_attention_forward` with inputs: query : shape=(1, 64, 5, 64) (torch.float32) key : shape=(1, 64, 5, 64) (torch.float32) value : shape=(1, 64, 5, 64) (torch.float32) attn_bias : p : 0.0 `decoderF` is not supported because: device=cpu (supported: {'cuda'}) attn_bias type is `flshattF@v2.3.6` is not supported because: device=cpu (supported: {'cuda'}) dtype=torch.float32 (supported: {torch.float16, torch.bfloat16}) `tritonflashattF` is not supported because: device=cpu (supported: {'cuda'}) dtype=torch.float32 (supported: {torch.float16, torch.bfloat16}) operator wasn't built - see `python -m xformers.info` for more info triton is not available `cutlassF` is not supported because: device=cpu (supported: {'cuda'}) `smallkF` is not supported because: max(query.shape[-1] != value.shape[-1]) > 32 device=cpu (supported: {'cuda'}) unsupported embed per head: 64
прямо сейчас тестирую этот метод, и у меня переключилось на нужную модель только после того как добавил в comman arguments строку "--no-half" в файде webui-user.bat
А как эта штука восстанавливает, скажем, сканы со старых пленок? Вот, например, у меня есть скан групповой школьной фотографии из 1995 года. Справится с такой задачей?
После 2х дней различных тестов складывается мнение, что StableSR нормально работает только с крупными портретами и слабодеталезированым бекграундом. Стоит попробовать прогнать через него фото, где портрет по пояс и на заднем плане природа например, предварительно чуток заблюрив в фотошопе, так вылазит какая то пиксельная мозаика.
Я уже второй заход делаю по этому грёбаному StableSR, и на выходе получается какая-то шляпа. Изображение в какой то паутине, или больше похоже на губку губчатого гриба, за какое-то улучшение хотя бы лица и вовсе говорить не приходится. Не знаю в чём причина.
запстила по инструкции encoder небольшой стоял, dec size 96, в итоге насчитал мне по времени больше часа)) я сразу же закрыла генерацию и SD)) видяха 3070
Хм. Автор говорит, что проявляется текстура лица и вообще, какая она хорошая. Но ведь как раз таки текстуры кожи и нет, одно мыло. Текстуру либо через каналы от донора в ФШ добавлять, либо долго инпейнтить, чтобы проявились поры и именно ТЕКСТУРА ЛИЦА, а не то, о чем говорит автор ролика. Ну, пока не вижу преимуществ этого метода, раз всё равно придется ТЕКСТУРУ ЛИЦА (кожи) добавлять вручную.
Автор втирает нам какую-то дичь. У меня эта шляпа даже такого результата как у автора выдавать не хочет. Да и на результатах автора фотореализмом и не пахнет.
0:48 на исходнике глаза карие, а на выходе голубые и всё остальное по классике. человек становится другим. нужен новый подход в работе нейросетей. чтобы материал для их обучения ты мог ему давать сам.
Некоторые комментаторы - странные. Им бесплатно всё рассказали, показали как скачать и установить, научили и объяснили настройки - а они недовольны и грузят нытьем автора. Не понимаю. У меня, кстати, на 3070 Ti RTX с 8 гигами видеопамяти вполне бодренько работает при Encoder file size 1536 а Decoder file size 192. И текстуру кожи вполне воспроизводит, особенно на блестящих её участках. Пробуйте несколько генераций, не с первого раза может получится хороший результат. Но, у меня почему-то не записывается результат генерации в OUTPUT, даже принудительно через кнопку Save Image. При переключении модели на другую и другой скрипт (типа SD Upscale) - всё записывает. А на этом не хочет почему-то... Тем кто говорит. что ремини проще и круче - ну она восстанавливает нормально только лицо и к тому-же стоит денех, либо смотри рекламу на каждой генерации.
Более трех лет занимаюсь реставрацией фотографий и этот метод в сравнении с ремини уступает во всем, начиная со сложности использования и заканчивая результатом. Все примеры фотографий в начале этого видео не похожи на стоковые фото, то есть лица значительно искажены, на изображениях совсем другие люди с другими чертами лиц. К сожалению стейблу пока далеко до ремини и до других апскейлеров.
Я реставрацией года 3 или 4 занимаюсь. Могу сказать, что Ремини меняет черты лица (глаза, нос, рот). И если увеличить исходник и результат обработки в Ремини, то различия бросаются в глаза. Поэтому я им давно не пользуюсь, хотя мне нравится как он делает текстуру кожи и волосы. Но есть программы, которые почти не меняют черты лица (изменения в пределах 2-4%). Правда, они текстуру кожи неважно делают. Возможно, надо комбинировать. Жаль только, что Ремини уже бесплатно не воспользуешься, а платить жаба душит.
Большинство же зрителей-читателей, послухав все эти "танцы с бубнами", сказали примерно так: Ни фига себе - это какие же железячно-программные ресурсы надо поиметь, чтобы всего навсего проапскейлить чью-то рожу! Не легче ли проделать все это на каком-то он лайн ресурсе - нейросети, каковых топерича туёва хуча? Нет, автору, конечно, спасибо - он проделал хорошую работу. Но все же это напоминает, когда бедняку-середняку по денежным возможностям предлагают сменить его старенький "Запорожець" на "Мерседес, мать его, Бенц - купи, мол, и поезжай с комфортом. Но вряд ли сегодня рядовой и даже продвинутый пользователь готов (и может!) выложить полмиллиона рублев за то, чтобы комфортно апскейлить мордашки! Так что остается читать всё это, да облизываться!
а ты не знаешь как сделать чтоб из автоматика в comfy пути к моделям не только базовые прописать но еще и animatediff, faceid, и прочее что тоже не мало весит, чтоб дубли моделей не хранить?
Могу такой вариант предложить в Windows (и не только) есть жесткие ссылки или соединения. Т.е. вы со создаёте папку в корне например "D:\Models" кладёте туда все нужные модели и создаёте соединение для каждой папки нейросети. Пример папка StableDiffusion модели находятся в папке "D:\StableDiffusion\Models" тогда удаляем папку в ней Models (предварительно переписав её содержимое в "D:\Models" и выполняем команду mklink /J "D:\StableDiffusion\Models" "D:\Models" теперь StableDiffusion будет думать что модели хранятся у неё в папке а это будет всего лишь ссылка на папку "D:\Models"
Делаю всё также как в видео, но изображение на выходе дает какой-то жесткий зеленый психодел. Карточка RTX 4080. Галочки в hypertyle отключены. Если кто с таким встречался, как фиксили?
У меня 4070, и почти сразу получился приемлемый результат. В консоли иногда проскакивала строчка "Error fixing color", и на выходе была цветовая мешанина. Можно попробовать отключить/включить опцию "Save Original" в пункте меню "Color Fix", и повыбирать разные режимы в выпадающей строчке "Color Fix". Или поиграться с размером плиток Latent tile height_Latent tile width.
Разобрался, не переключилась моделька на нужную. Все работает но результат очень странный, все в мелких точках и царапинах при приближении. Но это на фото с джипег артефактами. Наверное если их убрать царапин и точек не будет
@@wiwwiw2890кого там нейросеть заменила? Тот кто зарабатывал на восстановлении, тот и продолжает зарабатывать, хоть в фотошопе, хоть в нейронке. Обычный "клиент" по прежднему это сам не сделает, даже если посмотрит это видео. Что даст ему этот просмотр? Видуху на 24 гига? Знания фотомонтажа? Если человек хочет делать это сам, то он и без нейронки это сделает. А если ему чтоб восстановить 20 фото из архива проще заплатить кому-то деньги, чем самому в этом колупаться, то он так и сделает, и нейронки тут вообще не причём...
К сожалению не работает. Куча ошибок вылетает. Наверное видеокарта слабая rtx4060 не подходит NansException: A tensor with NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check. set COMMANDLINE_ARGS=--no-half не решает проблему с AttributeError: 'NoneType' object has no attribute 'parameters' Скорее всего что то с моделью...
@@jconnar тут всегда компромис есть. Больше памяти больше возможностей. Старше серия карты - больше скорость. 4070 быстрее 4060. Но если памяти не хватит быстрее будет 4060
Ну вообще копить на 4070 super это опционально. 10 линейка очень и очень устарела. 30 линейка это очень хороший вход для работы в любой индустрии. Но нужно 12гб и это или 3060 (что после 1080 не особо много смысла имеет) или уже тогда копить на 4070 super или выше. Сейчас куда не пойди, хоть 3D разработка, синематики в UE5 и т.п. везде нужны RT
@@stefan_es 3060 12гб после 1080 ещё как имеет смысл. Так же рассуждал, пока не пересел с 1080 на 3060, скорость генерации возросла в 4-5 раз. Сам был в шоке.
@@StableDiff Не работает, так как не получается активировать multidiffusion-upscaler-for-automatic1111, Forge его сразу отключает. Предположу что там есть внутренние аналоги по функционалу но как их использовать непонятно...
честно, апскейла не увидел. обычный ресайз, который в ФШ делается за 5 секунд без всего вообще. и на выходе будет точно такое же мыло. 0 деталей вообще.
Ну нееет. Это выходит ретушь аля 15 летней дальности. Замыленно все в хлам. В названии написано убийца… а в чем убийца? Магнифик рисует текстуру. Короч тупо кликбейт из за которого я потратил на тебя 10 минут.
Полная ерунда. Нет пока ничего лучше sd upscale + 3 модели контрол нета. Upscale хоть в 8 к делай, и лица не будут вообще изменены, и детали будут на высшем уровне, и кожа будет такая, ято в порах можно микробов разглядеть.
Убийца REMINI?????? В Remini можно спокойно загружать фото высокого разрешения, а тут ты говоришь что нужно уменьшить? И это убийца??? Дизлайк тебе жирный и огроменный!!!
Бесполезно . Артефакты не пропадают . Главное не просто артефакты а черно белое фото превращается , голубое, синие, фиолетовое пиксельное . Даже не понятно кто на фото .
🔥 Мой структурированный курс по "AUTOMATIC 1111" с моей поддержкой на сайте stabledif.ru
🔑 Схема для ComfyUi и все ссылки на Boosty:
🍀 boosty.to/stabledif
✔Телеграм-канал: t.me/stabledif_lesson
✔ Telegram ЧАТ: t.me/stable_dif
✔VK Prompts: vk.com/stabledif
Добрый день. Спасибо огромное за ваши ролики.
tiled установлено, в расширения показано оно есть, но во вкладках генерации так и не появляется
Для моей картинки (450x450) при дефолтных значениях не хватило 2 гиг (на карте 16). Уменьшил Encoder Tile Size -- качество не то. Вернул обратно. Уменьшил "Decoder Tile Size" до 128. Памяти хватило, качество улучшилось.
низкий поклон, почет и уважение
Спасибо за инструкцию, все получилось. Но Topaz AI делает это лучше и быстрее. Сравнил результаты от вашего метода и от Топаза. Stable сделал фото рисованным и отчасти исказил черты лица. А Топаз сохранил естественность, добавил немного текстуры на кожу, не исказил черты. У меня апскейл в Стэбле длился около 8 или 10 минут, а в Топазе секунд 20 на обработку и секунды 2-3 на сохранение. Выбор очевиден, но за альтернативу спасибо.
@@havemoney этой программе года 2 примерно, а то и меньше.
кстати это методу можно использовать для акскейла секвенций, уже не так рябит как просто апскейл моделью для генерации
На рисовке, заметно, если светлое на темном фоне, у меня например яркая луна в ореоле на темно-синем ночном небе, оно отрисовывает контур ровным четким черным кругом, как циркулем, там где в оригинале замыливание по краям.
Привет! Что думаешь по апскейлеру SUPIR? Был бы интересен обзор.
Это магия какая то !👍
Что насчёт апскейлера SUPIR от китайцев? Интересно было бы посмотреть сравнение
Классный метод апскейла. На gtx 1060 6gb работает, апскейлит даже при Encoder Tile Size 3072 и Decoder Tile Size 256э. Занимает по времени примерно минут 10.
подскажите, у меня отключается галочка в extensions - multidiffusion-upscaler-for-automatic1111 как исправить?
результат становится мультяшным, в топку!
Topaz Ptoto AI закрывает эти вопросы без танцев с бубном.
За сколько денег он это закрывает?
@@desidler торрент версия бесплатно.
@@EverythinggnihtyrevE "- за сколько? - за 3 года, условно." Это крайне маловероятно, но не дай Бог заграницей проверят твой пиратский сундук. (Дома еще ладно, это станет просто поводом посадить. А по факту плевать, так как если есть желание, то посадят и без пиратства.)
Ну и ответ на твоем наречье: Что за орки тебя воспитали, в какой пещере ты рос и при каком африканском государственном строе? Конечно же все пиратят, но имеющие голову не говорят об этом прямо и тем более не призывают к этому. Но видимо там уже ни ума, ни совести. Вот так получилось, не принято у людей воровать, так родители воспитывают людей. А если видят, что растет бестолочь, хотя бы учат не кичиться нарушениями законов, не записывать видео вандализма, не писать о своем воровстве.
@@EverythinggnihtyrevEа ты из страны попрошаек, что богатый стал что ли ?
@@desidlerэто можно делать за 1\10 стоимости видеокарты, так как в топазе это делается даже на встройке от intel-uhd
Как всегда - круто!
модель выбираю - грузится, но в итоге сбрасывается до изначальной, та же хня с вае рядом. При генерации выдает ошибку Runtime error: input type (torch.cuda.halftensor) and weight type (torch.halftensor) should be the same
привет. у меня нет в settings параметра hypertile. где его искать?
Tiled VAE will not run if dimensions are smaller than what you selected with slider, you can leave it off
th-cam.com/video/RIIdNyqs6mI/w-d-xo.html
интересно, а как это всё сработает если на восстанавливаемой картинке будет текст? тоже все перерисует в нечитаемые хаотичные символы?
StableSR на Forge установить можно?
Помогите пожалуйста решить проблему, сделал установил StableSR как вы рассказали, но при запуске генерации выдает ошибку AttributeError: 'NoneType' object has no attribute 'items'
RuntimeError: mat1 and mat2 must have the same dtype, but got Float and Half что делать?
А если нужна детализация текстуры лица? Сейчас учусь апскейлить с помощью ControlNet+Ultimate SD Upscale, но не всегда получается хороший результат. Тяжело заходит обучение без того, кто подскажет, но прям очень надо научиться вытаскивать хорошую кожу т.к. это надо для ретуши
при попытке выбрать скачанную модель 2.1 и так далее... выдает просто тонну ошибок и модель сбрасывается на предыдущую, не дает ее выбрать. NotImplementedError: No operator found for `memory_efficient_attention_forward` with inputs:
query : shape=(1, 64, 5, 64) (torch.float32)
key : shape=(1, 64, 5, 64) (torch.float32)
value : shape=(1, 64, 5, 64) (torch.float32)
attn_bias :
p : 0.0
`decoderF` is not supported because:
device=cpu (supported: {'cuda'})
attn_bias type is
`flshattF@v2.3.6` is not supported because:
device=cpu (supported: {'cuda'})
dtype=torch.float32 (supported: {torch.float16, torch.bfloat16})
`tritonflashattF` is not supported because:
device=cpu (supported: {'cuda'})
dtype=torch.float32 (supported: {torch.float16, torch.bfloat16})
operator wasn't built - see `python -m xformers.info` for more info
triton is not available
`cutlassF` is not supported because:
device=cpu (supported: {'cuda'})
`smallkF` is not supported because:
max(query.shape[-1] != value.shape[-1]) > 32
device=cpu (supported: {'cuda'})
unsupported embed per head: 64
прямо сейчас тестирую этот метод, и у меня переключилось на нужную модель только после того как добавил в comman arguments строку "--no-half" в файде webui-user.bat
А как эта штука восстанавливает, скажем, сканы со старых пленок? Вот, например, у меня есть скан групповой школьной фотографии из 1995 года. Справится с такой задачей?
Сегодня вышла уже версия 1.8.0 в Автоматике1111.
Спасибо! А это только для лиц работает или предметы, украшения, насекомых тоже можно с успехом увеличивать?
После 2х дней различных тестов складывается мнение, что StableSR нормально работает только с крупными портретами и слабодеталезированым бекграундом. Стоит попробовать прогнать через него фото, где портрет по пояс и на заднем плане природа например, предварительно чуток заблюрив в фотошопе, так вылазит какая то пиксельная мозаика.
Пожалуйста, сделайте еще инструкцию по SUPIR. На их сайте просто фантастические результаты, но установка такая же по сложности.
оперативнуая память (60 Гб) и VRAM (30 Гб x2) в SUPIR . Есть столько на компе?
Как всегда просто и понятно! 💯👍
Установка Tiled Diffusion прошла, но на основном экране этого нет. Как и нет Tiled VAE
Получилось их проявить? У меня тоже нет
Автор, от душа, спасибо!!!!
Я уже второй заход делаю по этому грёбаному StableSR, и на выходе получается какая-то шляпа. Изображение в какой то паутине, или больше похоже на губку губчатого гриба, за какое-то улучшение хотя бы лица и вовсе говорить не приходится. Не знаю в чём причина.
запстила по инструкции encoder небольшой стоял, dec size 96, в итоге насчитал мне по времени больше часа)) я сразу же закрыла генерацию и SD)) видяха 3070
В чем может быть причина при выборе модели v2-1_768-ema-pruned она не грузится,а соскакивает на предыдущую?
Такая же проблема.
Оперативы не хватает . Добавь файл подкачки или докупи RAM
@@StableDiff 64 гигов оперативы это мало?))и файл подкачки 30 гигов
+1 тоже самое происходит и оперативки 64 Гб тоже-куча ошибок с сброс на предыдущую модель...
@@djivanoff13 У меня на 3060 все заработало. Добавил в файл webui-user следущее --no-half --disable-nan-check
Модель v2-1_768-ema-pruned.safetensors не загружается :(
Хм. Автор говорит, что проявляется текстура лица и вообще, какая она хорошая. Но ведь как раз таки текстуры кожи и нет, одно мыло. Текстуру либо через каналы от донора в ФШ добавлять, либо долго инпейнтить, чтобы проявились поры и именно ТЕКСТУРА ЛИЦА, а не то, о чем говорит автор ролика. Ну, пока не вижу преимуществ этого метода, раз всё равно придется ТЕКСТУРУ ЛИЦА (кожи) добавлять вручную.
Автор втирает нам какую-то дичь. У меня эта шляпа даже такого результата как у автора выдавать не хочет. Да и на результатах автора фотореализмом и не пахнет.
А почему он может постоянно выдавать только чёрный квадрат как ни крути?
Спасибо за видео! Подскажите, а готовая схема работает только фото людей или можно увеличить любое изображение, например предмет?
0:48 на исходнике глаза карие, а на выходе голубые и всё остальное по классике. человек становится другим. нужен новый подход в работе нейросетей. чтобы материал для их обучения ты мог ему давать сам.
Remini апскейлит лица значительно лучше. В этом видео апскейл на 2 из 10
Некоторые комментаторы - странные. Им бесплатно всё рассказали, показали как скачать и установить, научили и объяснили настройки - а они недовольны и грузят нытьем автора. Не понимаю.
У меня, кстати, на 3070 Ti RTX с 8 гигами видеопамяти вполне бодренько работает при Encoder file size 1536 а Decoder file size 192. И текстуру кожи вполне воспроизводит, особенно на блестящих её участках. Пробуйте несколько генераций, не с первого раза может получится хороший результат.
Но, у меня почему-то не записывается результат генерации в OUTPUT, даже принудительно через кнопку Save Image. При переключении модели на другую и другой скрипт (типа SD Upscale) - всё записывает. А на этом не хочет почему-то...
Тем кто говорит. что ремини проще и круче - ну она восстанавливает нормально только лицо и к тому-же стоит денех, либо смотри рекламу на каждой генерации.
Вы решили проблему с записью результата в папку OUTPUT ? Я наблюдаю такую же проблему как у вас
@@sharksgangs увы, нет. Приходится сохранять нужные генерации через ПКМ на картинке и "сохранить изображение как..."
за "бесплатно", это можно сделать в фотошопе. тремя примерно кликами, за 5 или 7 секунд. без всяких танцев вокруг ссаного питона.
SUPIR пишут что смогут оптимизировать до 24гб видеопамяти, будет еще более крутая штука
Более трех лет занимаюсь реставрацией фотографий и этот метод в сравнении с ремини уступает во всем, начиная со сложности использования и заканчивая результатом. Все примеры фотографий в начале этого видео не похожи на стоковые фото, то есть лица значительно искажены, на изображениях совсем другие люди с другими чертами лиц. К сожалению стейблу пока далеко до ремини и до других апскейлеров.
Я реставрацией года 3 или 4 занимаюсь. Могу сказать, что Ремини меняет черты лица (глаза, нос, рот). И если увеличить исходник и результат обработки в Ремини, то различия бросаются в глаза. Поэтому я им давно не пользуюсь, хотя мне нравится как он делает текстуру кожи и волосы. Но есть программы, которые почти не меняют черты лица (изменения в пределах 2-4%). Правда, они текстуру кожи неважно делают. Возможно, надо комбинировать. Жаль только, что Ремини уже бесплатно не воспользуешься, а платить жаба душит.
@@gurufrilansa ремини полностью бесплатный, просто накладываешь ремини на сток и стираешь моменты которые не нравятся мягким ластиком.
@@rockstark4620 в каком месте он бесплатный?
у меня не появился Tiled :(
Было интересно, спасибо!
Большинство же зрителей-читателей, послухав все эти "танцы с бубнами", сказали примерно так: Ни фига себе - это какие же железячно-программные ресурсы надо поиметь, чтобы всего навсего проапскейлить чью-то рожу! Не легче ли проделать все это на каком-то он лайн ресурсе - нейросети, каковых топерича туёва хуча? Нет, автору, конечно, спасибо - он проделал хорошую работу. Но все же это напоминает, когда бедняку-середняку по денежным возможностям предлагают сменить его старенький "Запорожець" на "Мерседес, мать его, Бенц - купи, мол, и поезжай с комфортом. Но вряд ли сегодня рядовой и даже продвинутый пользователь готов (и может!) выложить полмиллиона рублев за то, чтобы комфортно апскейлить мордашки! Так что остается читать всё это, да облизываться!
как сделать ползунки в интерфейсе нейронки синего цвета, они у меня серые почему-то
Купить
@@howtobehappy404 ты вообще безмозглый походу
Зачем снова сохранять в JPEG, если только что избавились от артефактов? PNG побольше объемом, но гарантированно без артефактов.
спасибо за видео. Напишите пожалуйста сколько ставить Encoder Tile Size и Decoder Tile Size если у меня 8 гб. видео памяти?
1024 и 128
@@StableDiff большое спасибо
спасибо, а как установить на портабельную версию?
а ты не знаешь как сделать чтоб из автоматика в comfy пути к моделям не только базовые прописать но еще и animatediff, faceid, и прочее что тоже не мало весит, чтоб дубли моделей не хранить?
Могу такой вариант предложить в Windows (и не только) есть жесткие ссылки или соединения. Т.е. вы со создаёте папку в корне например "D:\Models" кладёте туда все нужные модели и создаёте соединение для каждой папки нейросети. Пример папка StableDiffusion модели находятся в папке "D:\StableDiffusion\Models" тогда удаляем папку в ней Models (предварительно переписав её содержимое в "D:\Models" и выполняем команду mklink /J "D:\StableDiffusion\Models" "D:\Models" теперь StableDiffusion будет думать что модели хранятся у неё в папке а это будет всего лишь ссылка на папку "D:\Models"
Делаю всё также как в видео, но изображение на выходе дает какой-то жесткий зеленый психодел. Карточка RTX 4080. Галочки в hypertyle отключены.
Если кто с таким встречался, как фиксили?
У меня 4070, и почти сразу получился приемлемый результат. В консоли иногда проскакивала строчка "Error fixing color", и на выходе была цветовая мешанина. Можно попробовать отключить/включить опцию "Save Original" в пункте меню "Color Fix", и повыбирать разные режимы в выпадающей строчке "Color Fix". Или поиграться с размером плиток Latent tile height_Latent tile width.
Разобрался, не переключилась моделька на нужную. Все работает но результат очень странный, все в мелких точках и царапинах при приближении. Но это на фото с джипег артефактами. Наверное если их убрать царапин и точек не будет
Мыльное мыло, далекое от фотокачества.
Пишет тот кто раньше делал деньги на восстановлении фотографии. Нейросеть вас заменила, смирись 😃
@@wiwwiw2890кого там нейросеть заменила? Тот кто зарабатывал на восстановлении, тот и продолжает зарабатывать, хоть в фотошопе, хоть в нейронке. Обычный "клиент" по прежднему это сам не сделает, даже если посмотрит это видео. Что даст ему этот просмотр? Видуху на 24 гига? Знания фотомонтажа? Если человек хочет делать это сам, то он и без нейронки это сделает. А если ему чтоб восстановить 20 фото из архива проще заплатить кому-то деньги, чем самому в этом колупаться, то он так и сделает, и нейронки тут вообще не причём...
@@wiwwiw2890Я не зарабатывал на восстановлении фото, но всё равно вижу мыльнейшее мыло. Что со мной не так?
@@wiwwiw2890 они теперь зарабатывают в х раз быстрее)
К сожалению не работает. Куча ошибок вылетает. Наверное видеокарта слабая rtx4060 не подходит
NansException: A tensor with NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
set COMMANDLINE_ARGS=--no-half
не решает проблему с AttributeError: 'NoneType' object has no attribute 'parameters'
Скорее всего что то с моделью...
Зрители , на что пересесть с 1080 8гб? тока не советуйте 4800 и 3900. что нить понароднее
4090, 4080, 3090, 4070, 4060 (24Гб, 16Гб, 12Гб) В порядке приоритета и обратнопропорционально цене.
@@StableDiff 4060 Ti 16 Gb а вот такой сабж. надо же чем больше оперативки
@@jconnar тут всегда компромис есть. Больше памяти больше возможностей. Старше серия карты - больше скорость. 4070 быстрее 4060. Но если памяти не хватит быстрее будет 4060
Ну вообще копить на 4070 super это опционально. 10 линейка очень и очень устарела. 30 линейка это очень хороший вход для работы в любой индустрии. Но нужно 12гб и это или 3060 (что после 1080 не особо много смысла имеет) или уже тогда копить на 4070 super или выше. Сейчас куда не пойди, хоть 3D разработка, синематики в UE5 и т.п. везде нужны RT
@@stefan_es 3060 12гб после 1080 ещё как имеет смысл. Так же рассуждал, пока не пересел с 1080 на 3060, скорость генерации возросла в 4-5 раз. Сам был в шоке.
Не получается, фон и девушка стало общим зелёным, хотя, делал как в уроке показано.
А у меня в скриптах не появляется stableSR, хотя при повторной установке пишет что уже установлено.
Что это может быть, как исправить?
аналогично((
У вас наверное очень мощный компьютер. За 2 секунды сгенерировал. Я ждал несколько минут.
Дешевле купить подписку чем карту купить на 24гигов
Спасибо,всё супер😅
Выдает пока слишком мультяшный апскейл на фотках, так что пока еще далеко
у меня почему-то нет на верху sd vae
th-cam.com/video/RIIdNyqs6mI/w-d-xo.html
Так же выдает ошибку при попытке выбрать модель. ОЗУ 128 Гб.
32ГБ все сработало замечательно
А теперь на стандартном Вае что ли можно работать,специальный не надо?
Специальный не нужен
Эффект потрескавшейся кожи.. Не знаю в чем дело.🙃
У меня все в Артефактах :(
Таже фигня :(
да. что только не делал, все в артефактах (64ram, 4090)
Извините но это не upscale а шляпа какая-то те же настройки на rtx 3090 , три мин на картинку
Cuba77 на 3 фото откуда?
Аниме который озвучивает?
топ
А в Forge будет работать?
Не пробовал.
@@StableDiff после установки Tiled - не отображается опция
@@StableDiff Не работает, так как не получается активировать multidiffusion-upscaler-for-automatic1111, Forge его сразу отключает. Предположу что там есть внутренние аналоги по функционалу но как их использовать непонятно...
Не работает, не отображается Tiled Vae
Делаем так, чтобы было хуже, удаляем детали через децимации, устраняем артефакты в Photoshop, УВЕЛИЧИВАЕМ разрешение 😂
Убийца magnific конечно чистый кликбайт) все-таки даже близко не подошли к его результату.
В Remini качество выше, здесь много мыла
Спасибо!
Интересно получается. Для Автоматика бесплатно, для Комфи по платной подписке. Типа пользователи Комфи особо богатые.
Я даже не знаю что сказать. Скажу - пожалуйста.
типа в Комфи в один клик, платишь за это
лицо похоже на пластик. Не вижу превосхосдва над ремини.
У меня нет раздела SD VAE.
Как его добавить, чтобы потом выбрать vae-ft-mse-840000--ema-pruned.ckpt ?
Присоединяюсь
@@МаксимШтыков-ю3з th-cam.com/video/RIIdNyqs6mI/w-d-xo.html
Подскажите, как он в сравнении с leonardo?
StableSR один из лучших
честно, апскейла не увидел. обычный ресайз, который в ФШ делается за 5 секунд без всего вообще. и на выходе будет точно такое же мыло. 0 деталей вообще.
К сожалению до remini ещё далеко)
Ну нееет. Это выходит ретушь аля 15 летней дальности. Замыленно все в хлам.
В названии написано убийца… а в чем убийца? Магнифик рисует текстуру. Короч тупо кликбейт из за которого я потратил на тебя 10 минут.
Ну хз - на примерах апскейл выглядит прям как генерация. Topaz иной раз даже лучше делает
SUPIR намного лучше
14:18 plz plz Workfolw
Да не.... Сразу видно, что не естественно, как будто ИИ делал. Это чисто для школьников подойдет, развлекаться🤷♂️
Полная ерунда. Нет пока ничего лучше sd upscale + 3 модели контрол нета. Upscale хоть в 8 к делай, и лица не будут вообще изменены, и детали будут на высшем уровне, и кожа будет такая, ято в порах можно микробов разглядеть.
Подскажи, пожалуйста, этот метод.
Гемор какой-то...
Морока какая-то жуткая
огого! мем про супер-зум перестал быть мемом =))
з.ы. 5-кратный лучше картинку выдаёт.
один глаз голубой, другой серый, по глазам видно что генерация!! глаза ужасные! ну нахер оно надо:?
Короче очередной не работающий шлак.
Убийца REMINI?????? В Remini можно спокойно загружать фото высокого разрешения, а тут ты говоришь что нужно уменьшить? И это убийца??? Дизлайк тебе жирный и огроменный!!!
слово install - произношение - инстол - ударение на второй слог на букву О
И что? Это не школа, иди нах учитель!
этот метод устарел и даже на вашем видео ужасный результат
А что уновело? Желательно на коллабе
Бесполезно . Артефакты не пропадают . Главное не просто артефакты а черно белое фото превращается , голубое, синие, фиолетовое пиксельное . Даже не понятно кто на фото .