Дополню про FLUX важную информацию которая была упущена. Почему FLUX понимает сложные подсказки. Эта модель работает с T5 словарём (текстовым энкодером) в отличии от моделей работающих на CLIP словарях (почти все модели до FLUX). Что это значит для пользователя: то что Т5 словари это как предобученные модели для восприятия естественного языка и они как раз почти требуют от вас использовать подсказки выраженные в одном предложении через запятую. CLIP лучше работает по ключевым словам, словосочетаниям и коротким фразам назовём их "точками". То есть во FLUX мы получаем модель текстового кодировщика которая понимает общую связность представленного текста в то время как предыдущие модели предполагают формализованный точечную интерпретацию текста как более разрозненный набор объектов, оставляя на откуп модели организацию связей между ними. Так же Т5 отличается тем что в отличии от CLIP совокупный запрос иммет более равномерное распределение значимости слов в зависимости от их позиции в запросе, когда как в CLIP существует более заметный перекос значимости слов выражении от начала промпта к его концу. То есть энкодер Т5 как бы пытается понять совокупную фразу (потому и надо писать её естественным языком описывая связи) а CLIP строит изображение по "точкам" где более ранние слова имеют бОльшую значимость чем последние. Это принципиальная разница в подходе к использованию модели для качественного инференса.
@@IlyaRolf Flux и так и так будет работать, просто если не бояться и использовать сложные предложения, то как правило получаешь лучший результат, так же рекомендую использовать качественные переводчики если уровень собственного английского не очень высокий, а сцену хочется получить сложную и выраженную связной фразой. Подойдут DeepL или Lingva (Это Google только без трекинга). Тут, конечно, ещё с десяток более мелких моментов, например: материал на котором модель обучена (это самое важное, пожалуй) никакая подсказка не помжет если модель не знает как выглядит тот или иной объект или эффект или .... Остальное только практикой или ознакомлением с тем что люди уже пробовали делать, что получается хорошо, а что не очень.
@@TheSniperoff вы знаете что у меня произошло - у меня flux стоит автономно на stable diffusion, я переписал некоторые промты согласно вашему совету, сделал их очень длинными, описательными, практически без точек. И у меня чуть сердце не оборвалось :)) Во-первых, перестали работать все лоры (я 3 использую), и в Sampling method перестал работать Forge Flux Realistic (2x Slow), все картинки стали получаться в ужасном "пластиковом" стиле Euler. Вернул старые промты с короткими предложениями, с точками и все восстановилось. Что это все значит - я понять не могу, я новичок в этих делах.
Если твое железо оставляет желать лучшего, а очень хочется создавать картинки и видео в ComfyUI выход есть)) Можно арендовать мощный компьютер и подключится к нему удаленно и работать в свое удовольствие, 21 век на дворе как - никак))) Цены вполне приемлемые для примера сейчас опишу пару компов с их железом и какая цена аренды. 1. (GPU) - 1xNOGPU, (CPU) - 2xE5 - 2660v3, (RAM) - 64Гб, (SSD) - 400Гб, - цена за такую конфигурацию - 10 руб\час 2. (GPU) - 1xRTX 4090 24GB, (CPU) - EPYK 7302, (RAM) - 512GB, (SSD) - 400GB, - цена за такую конфигурацию - 110 руб\час Я сам уже давно юзаю такой вариант, и еще там есть такая фишка что твой образ винды сохраняется и ты можешь без проблем менять конфигурации железа в зависимости от нужд, просто выбирая нужный вариант и подгружая к нему свой образ (он хранится у них на сервере) Если есть вопросы пишите помогу\отвечу чем смогу!!! Сайт с арендой железа gpudc.ru
27:39 немного не так) Скорость загрузки модели прежде все зависит от объема видеопамяти и от скорости работы видеопамяти. При ситуации когда видеопамяти мало, и ее будет не хватать, тогда система возьмёт нехватку памяти за счёт оперативной памяти (которая априорные более медленная чем память видео) - итоге : после тогда когда видеопамяти станет не хватать, и начнет использоваться оперативная память, скорость генерации или резко или плавно но сильно замедлится. В связи с этим и считается , что для работы нейросистем в локальном исполнении требуется достаточно видеопамяти + дополнительно чтобы ее хватало на генерацию. Должен быть запас определенный. Поэтому сейчас считается оптимальным для работы с локальными интерфейсами нейронка видеокарты на компьютере минимум 12гб и выше. Оптимально: 16 гб, комфорт и скорость 24 Гб видеопамяти.
Не поможете?) Все необходимое установил, но при нажатии кнопки генерации Queue в правом верхнем углу написано "переподключение". При этом вкладка загружена на 6% и зависает на этом В консоли в этот момент пишет "Failed to validate prompt for output 24: * (prompt): - Required input is missing: images * PreviewImage 24: - Required input is missing: images Output will be ignored Using pytorch attention in VAE Using pytorch attention in VAE"
Очень удивило описание стейбл дифьюжн) Вероятно, мощнейший инструмент. Просто требует задрачивания промпта и настроек (то, что внутренний аналог чат гпт делает в других продуктах)
ПОМОГИТЕ, Модель flux1-dev-fp8 которая на 16 гиг. генерация идет но выводит просто черное изображение. В чем дело? что я делаю не так ?или что то упустил? видюха у меня на 12гб но тогда бы модель не запускалась как версия на 22 гб. а тут она работает и генерит прото черное изображение делает.
@@user-uroki тогда в настройках нужно копаться, у меня тоже на какие-то промты пиксельные картинки генерил, а когда генерила по промтам из видео у the Cartel, то вообще все хорошие арты получались
Постоянно выдает ошибку. Given groups=1, weight of size [320, 4, 3, 3], expected input[1, 16, 135, 102] to have 4 channels, but got 16 channels instead Что она значит?
Скорее всего, что-то не то с моделью или конфигурацией модели, возможно, проблема в конфликтующих плагинах ComfyUI, попробуйте открыть самый простой пример и начать с него заново.
RTX4060TI-16GB, 64GB-RAM, W11, WebUI-Forge Flux1-devFP16, T5XXL-FP16 Один шаг генерации изображения размером 1MP занимает 3 сек, то есть одно изображение 1024x1024 на 20-30 шагах занимает соответственно 60-90 секунд. (плюс еще Lora 16dim FP16, без нее еще быстрее, но конкретные цифры забыл, а сейчас нет возможности проверить) RAM очень важен, забиваются 64ГБ прямо впритык, было 32GB RAM генерация была в разы медленнее.
26:24 есть версия схемы (воркфлоу) где есть возможность писать негативные коррекции) для ещё больше ограничения и уточнения результата при работе с FLUX (флаксом или по другому флюкс). Кстати, для тех у кого компьютер более слабый можно использовать схемы с квантованными моделями в формате gguf, оч удобно сделать для тех у кого видеокарты не превышают или 8 или 12 Гб видеопамяти.
Интересно, можно ли арендовать сервер, и платить не за арендованное время, а за использованную мощность + аренда хранилища отдельно. мне кажется это было бы очень выгодно и удобно
Ну, достаточно мощный, так озвучьте пожалуйста на сколько мощный , в идеале озвучьте людям , что в приоритете по мощностям , о vram,, о карте 4090 ,))))
Привет! Я задался целью - рассказать об этом друзьям. Теперь не прийдётся рассказывать, просто скину им это видео) Для первого касания с технологией подойдёт. Но, честно говоря, всё довольно непонятно и поверхностно. Поэтому я и для себя хочу прояснить следующий момент: FLUX это новый виток развития t2i нейросетей? В начале был SD 1.5, потом SDXL, SD 3 и сейчас FLUX. Это сама основная модель которая генерирует изображение из шума, к ней же привязан интерпретатор промпта. То-есть промптить стало проще, изображение генерится начиная с 1024х1024. Но и требования к компу возросли. И получается, всё остальное (controlnet, LoRA, ip-adapter, и даже сам K-Sampler) - тоже нужны новые? Как я понял, контролнет только-только завезли, ip-adapter там какой-то свой аналог, ещё какой-то gguf для ускорения... И ещё ComfyUI Desktop V1 скоро выходит!
У FLUX есть определенная специфика, это безусловно. Модели LoRA, Controlnet или другие тоже нужны специфические, под FLUX, но это не так сложно как кажется, просто нужно использовать модель-специфичные ноды (а иногда и старые). Что касается K-Sampler, то важно понимать какие настройки использовать и можно работать в старых workflow (у FLUX есть специфика с CFG и guidance). Изображение не обязательно 1024 x 1024. В отличие от Stable Diffusion, FLUX очень хорошо работает с разными разрешениями и соотношениями сторон. Вообще считается, что он генерирует картинки от 1 до 2 мегапикселей, размеры можно подобрать в соответствии с этим.
Эх, такого бы разьясналу мне год назад когда за комфи я брался раза три и бросал нафиг)))) но разобраться в нем это лучшее что со мной случилось))) ибо воркфлошки это топчик.
@@havemoney тут дело не в концептуальности. Это просто очень распространенный способ управления с помощью нод. Испльзуется в куче профессионального софта в разных отраслях именно из-за гибкости и множества возможностей
@@SkeggiUlrich (Важное в конце) Ноды понятно, неудобно то что есть конфликты нодов, скачивая процесс не всегда ясно что за модели нужны и то самое главное, вероятно все неудобства в прошлом, в не браузерной версии все эти вопросы порешали. Есть превью моделей, есть авто загрузка недостающих моделей. Стало удобней.
Да и полные заведутся. Там же в системе есть общая память, если выделенной не хватает, то из оперативной памяти добавляется недостающая память. Надо просто иметь достаточно оперативки
Здравствуйте.хочу заняться саморазвитием по Ai, посоветуйте пожалуйста какой комп на основе Windows купить,(инфу про Mac book тоже учла) Благодарю за видео очень полезный канал.
на 4pda есть форум и соответствующий топик по рекомендациям компьютера. Пишете туда запрос со своим бюджетом и посоветуют. Мне там советовали комп и ноут. А с ноутом так вообще ссылку на выгодный кинули.
У меня вопрос, может кто-то ответит. Вы замечали такой ньюанс в работе нейросетей, что при одном и том же промпте, на этапе первых генераций результат обычно “так себе”, но спустя 100, 200, 500 генераций, качество генерации сильно возрастает. От чего это зависит? В нейросети есть какой-то дополнительный код, который раскрывает постепенно всю возможность нейросети. Или это какой-то маркетинговый код, чтобы человек в любом случае получил нужный результат. Что это? Я заметил это ещё с mj4. Mj и Flux от разных разработчиков. Хотя schnell оч похож на mj4. И у них определенно есть такая общая черта. То, что Flux на локалке дообучается, так себе идея.
Это одно из самых удивительных наблюдений и один из самых интересных комментариев, которые мне доводилось читать. Вполне возможно, что происходит изменение генерации в зависимости от количества повторений с одним и тем же промптом, но я на практике никогда не сталкивался с описанным выше поведением.
@C0D3633K при этом, я пробовал с разными промптами: от легких и банальных, до очень сложных. Нейросеть в первых 50 генерациях даёт обобщающее изображение (возможно мейнстримное). Где-то на 200 уже меняется композиция в более сложную вариацию. На 300 освещение может меняться в лучшую сторону, очень заметно. На 500 иногда бывает какой-то баг, сложно сказать, но нейросеть начинает выдавать безумные результаты, словно у нейросети открывается второе дыхание. Видимо нейросеть уже начинает искать в своей базе такие референсы, которые ею отброшены в самый дальний ящик. Проверять такое конечно стоит на чем-то сложном и конкретном. Тогда глаз сразу бросается, что результат сильно отличается. Но, возможно, что нейросеть просто крутит внутри себя что-то вроде Sampling steps, только какой-то внутренний и скрытый.
@@inquader3448 подтверждаю, встречал такое. попробовал нейросети, затянуло как хобби. сд 1.5, потом пони и тут флакс вышел. обновил видяху и давай играться. много дней генерил все что в голову приходило, комп не перезагружался несколько дней (он же сервер на работе, мощности позволяют) я не знаю, как много было генераций, прежде чем его переклинило. набил что-то абстрактное в промпте, выкрутил батч сайз на дофига и свалил домой. потом, просматривая результаты, увидел, что в этой партии генерации в какой-то момент сэмплы начали сваливаться в пиксельное нечто, потом черные квадраты, размазня... через сэмплов 10 полезло ОНО. стиль полностью изменился, я бы не сказал, лучше или хуже, он просто стал другим. что именно было, я уже и не упомню, просто я запомнил эту ситуацию из-за этого глюка. я тогда знатно удивился, почесал репу "наверное, перетрудилась, бедняжка", удалил все нафиг и ребутнул сервер))). так что да, такое возможно
спасибо за видео, очень интересно. Но вот вопрос, честно пока непонятно как с этого всего зарабатывать можно, вначале видео, вы сказали что у вас бизнес, и что вы бизнессмен. В чем заработок на этом, если это всё можно скачать и делать самим, и как же зарабатывать на этом всём? если конечно не секрет. Спасибо
Осваиваете все, затем записываете бесплатные видео "основы flux и comfyui", а потом проводите дополнительные уроки за деньги, или какую-нибудь подписку на бусти, где уже обещаете еще больше полезной информации)
ну, установить 1С или ERP тоже можно самостоятельно. Но инсталяции, адаптации, обучении, поддержке и обновлении зарабатывают огромное количество компаний
Так написано же -- арендуем мощности у поставщиков, несколько генераций за доляр. Где-то дают чуть-чуть попользоваться на халяву. Кандинский от Сбера, вроде, бесплатно.
стоит посмотреть как правильно называются сервисы ИИ и правильно их называть и ставить ударения))) может кого то это не парит но человеку который очень давно в этой сфере ужасно режет ухо при назывании
Презентации из вебинаров и мастер-классов тут: t.me/aiwizards
ссылку бы на FLUX, дал бы
Дополню про FLUX важную информацию которая была упущена. Почему FLUX понимает сложные подсказки. Эта модель работает с T5 словарём (текстовым энкодером) в отличии от моделей работающих на CLIP словарях (почти все модели до FLUX). Что это значит для пользователя: то что Т5 словари это как предобученные модели для восприятия естественного языка и они как раз почти требуют от вас использовать подсказки выраженные в одном предложении через запятую. CLIP лучше работает по ключевым словам, словосочетаниям и коротким фразам назовём их "точками". То есть во FLUX мы получаем модель текстового кодировщика которая понимает общую связность представленного текста в то время как предыдущие модели предполагают формализованный точечную интерпретацию текста как более разрозненный набор объектов, оставляя на откуп модели организацию связей между ними. Так же Т5 отличается тем что в отличии от CLIP совокупный запрос иммет более равномерное распределение значимости слов в зависимости от их позиции в запросе, когда как в CLIP существует более заметный перекос значимости слов выражении от начала промпта к его концу. То есть энкодер Т5 как бы пытается понять совокупную фразу (потому и надо писать её естественным языком описывая связи) а CLIP строит изображение по "точкам" где более ранние слова имеют бОльшую значимость чем последние. Это принципиальная разница в подходе к использованию модели для качественного инференса.
интересная инфа.... а я FLUX скармливал промты с точкой и кучей предложений. Учту ваше замечание...
@@IlyaRolf Flux и так и так будет работать, просто если не бояться и использовать сложные предложения, то как правило получаешь лучший результат, так же рекомендую использовать качественные переводчики если уровень собственного английского не очень высокий, а сцену хочется получить сложную и выраженную связной фразой. Подойдут DeepL или Lingva (Это Google только без трекинга). Тут, конечно, ещё с десяток более мелких моментов, например: материал на котором модель обучена (это самое важное, пожалуй) никакая подсказка не помжет если модель не знает как выглядит тот или иной объект или эффект или .... Остальное только практикой или ознакомлением с тем что люди уже пробовали делать, что получается хорошо, а что не очень.
@@TheSniperoff вы знаете что у меня произошло - у меня flux стоит автономно на stable diffusion, я переписал некоторые промты согласно вашему совету, сделал их очень длинными, описательными, практически без точек. И у меня чуть сердце не оборвалось :)) Во-первых, перестали работать все лоры (я 3 использую), и в Sampling method перестал работать Forge Flux Realistic (2x Slow), все картинки стали получаться в ужасном "пластиковом" стиле Euler. Вернул старые промты с короткими предложениями, с точками и все восстановилось. Что это все значит - я понять не могу, я новичок в этих делах.
Благодарю за отличный обзор, подачу и материал. 🔥С удовольствием послушал и посмотрел. Всего доброго! 👍
Спасибо, очень доступно. Может сделаете ещё выпуск без comfyUI? А как в старом SD 1.6? В браузере? Или там все так же, только ручками?
Здоровская лекция! Хочется продолжения про кофи ) Спасибо за воркфлоу!
Отличное объяснение, замечательный подкаст спасибо, жму руку
Если твое железо оставляет желать лучшего, а очень хочется создавать картинки и видео в ComfyUI выход есть))
Можно арендовать мощный компьютер и подключится к нему удаленно и работать в свое удовольствие, 21 век на дворе как - никак))) Цены вполне приемлемые для примера сейчас опишу пару компов с их железом и какая цена аренды.
1. (GPU) - 1xNOGPU, (CPU) - 2xE5 - 2660v3, (RAM) - 64Гб, (SSD) - 400Гб, - цена за такую конфигурацию - 10 руб\час
2. (GPU) - 1xRTX 4090 24GB, (CPU) - EPYK 7302, (RAM) - 512GB, (SSD) - 400GB, - цена за такую конфигурацию - 110 руб\час
Я сам уже давно юзаю такой вариант, и еще там есть такая фишка что твой образ винды сохраняется и ты можешь без проблем менять конфигурации железа в зависимости от нужд, просто выбирая нужный вариант и подгружая к нему свой образ (он хранится у них на сервере) Если есть вопросы пишите помогу\отвечу чем смогу!!! Сайт с арендой железа gpudc.ru
Спасибо за примеры и рассказ. Конечно сжато. Но сновные моменты понятны. Подписался лайк.
Благодарю за видео! Очень интересно и достаточно подробно описано и продемонстрировано.
Очень качественно подан материал. Красавчик!
27:39 немного не так)
Скорость загрузки модели прежде все зависит от объема видеопамяти и от скорости работы видеопамяти. При ситуации когда видеопамяти мало, и ее будет не хватать, тогда система возьмёт нехватку памяти за счёт оперативной памяти (которая априорные более медленная чем память видео) - итоге : после тогда когда видеопамяти станет не хватать, и начнет использоваться оперативная память, скорость генерации или резко или плавно но сильно замедлится.
В связи с этим и считается , что для работы нейросистем в локальном исполнении требуется достаточно видеопамяти + дополнительно чтобы ее хватало на генерацию. Должен быть запас определенный.
Поэтому сейчас считается оптимальным для работы с локальными интерфейсами нейронка видеокарты на компьютере минимум 12гб и выше. Оптимально: 16 гб, комфорт и скорость 24 Гб видеопамяти.
Спасибо,очень интересно.
Не поможете?)
Все необходимое установил, но при нажатии кнопки генерации Queue в правом верхнем углу написано "переподключение". При этом вкладка загружена на 6% и зависает на этом
В консоли в этот момент пишет
"Failed to validate prompt for output 24:
* (prompt):
- Required input is missing: images
* PreviewImage 24:
- Required input is missing: images
Output will be ignored
Using pytorch attention in VAE
Using pytorch attention in VAE"
Очень удивило описание стейбл дифьюжн)
Вероятно, мощнейший инструмент. Просто требует задрачивания промпта и настроек (то, что внутренний аналог чат гпт делает в других продуктах)
ПОМОГИТЕ, Модель flux1-dev-fp8 которая на 16 гиг. генерация идет но выводит просто черное изображение. В чем дело? что я делаю не так ?или что то упустил? видюха у меня на 12гб но тогда бы модель не запускалась как версия на 22 гб. а тут она работает и генерит прото черное изображение делает.
флакс работает только в комфи и стейбл дефюжн фордж
А версия SD у Вас какая? У меня в версии Forge работает, у the Cartel на ютуб канале он подробно описывает как установить и как работать с Flux
@@Mal_ta фодж второй. вроде бы последняя верия
@@user-uroki тогда в настройках нужно копаться, у меня тоже на какие-то промты пиксельные картинки генерил, а когда генерила по промтам из видео у the Cartel, то вообще все хорошие арты получались
@@user-uroki он там ещё ссылку даёт на версию в 12 Гб, она в принципе не отличается от 22Гб,просто полегче
Слово Clay просто включает данную Лору , триггерное слово , можно было просто его указать в промте
Постоянно выдает ошибку. Given groups=1, weight of size [320, 4, 3, 3], expected input[1, 16, 135, 102] to have 4 channels, but got 16 channels instead Что она значит?
Скорее всего, что-то не то с моделью или конфигурацией модели, возможно, проблема в конфликтующих плагинах ComfyUI, попробуйте открыть самый простой пример и начать с него заново.
Спасибо за 720р в 21 веке 😐
FLUX тут бессилен)
Ахахаха =) Да, тут ничего не поделать - вебинар. Где-то в канале лежит преза в PDF, там всё видно хорошо.
RTX4060TI-16GB, 64GB-RAM, W11, WebUI-Forge
Flux1-devFP16, T5XXL-FP16
Один шаг генерации изображения размером 1MP занимает 3 сек, то есть одно изображение 1024x1024 на 20-30 шагах занимает соответственно 60-90 секунд.
(плюс еще Lora 16dim FP16, без нее еще быстрее, но конкретные цифры забыл, а сейчас нет возможности проверить)
RAM очень важен, забиваются 64ГБ прямо впритык, было 32GB RAM генерация была в разы медленнее.
26:24 есть версия схемы (воркфлоу) где есть возможность писать негативные коррекции) для ещё больше ограничения и уточнения результата при работе с FLUX (флаксом или по другому флюкс).
Кстати, для тех у кого компьютер более слабый можно использовать схемы с квантованными моделями в формате gguf, оч удобно сделать для тех у кого видеокарты не превышают или 8 или 12 Гб видеопамяти.
Да, все верно. В следующем ролике собирался как раз про это рассказать.
На Алису у меня тригернуло сразу, узнал.😊
Интересно, можно ли арендовать сервер, и платить не за арендованное время, а за использованную мощность + аренда хранилища отдельно. мне кажется это было бы очень выгодно и удобно
Да, так можно. replicate предлагает как раз такую услугу, это открывает отличные новые возможности в создании продуктов и сервисов.
Мид Джони 😂
Ну, достаточно мощный, так озвучьте пожалуйста на сколько мощный , в идеале озвучьте людям , что в приоритете по мощностям , о vram,, о карте 4090 ,))))
Сделайте пожалуйста ещё видео по работе к ComfyUI + ChatGPT
Зачем Комфи если есть фордж
Привет! Я задался целью - рассказать об этом друзьям. Теперь не прийдётся рассказывать, просто скину им это видео)
Для первого касания с технологией подойдёт. Но, честно говоря, всё довольно непонятно и поверхностно. Поэтому я и для себя хочу прояснить следующий момент: FLUX это новый виток развития t2i нейросетей?
В начале был SD 1.5, потом SDXL, SD 3 и сейчас FLUX. Это сама основная модель которая генерирует изображение из шума, к ней же привязан интерпретатор промпта. То-есть промптить стало проще, изображение генерится начиная с 1024х1024. Но и требования к компу возросли.
И получается, всё остальное (controlnet, LoRA, ip-adapter, и даже сам K-Sampler) - тоже нужны новые? Как я понял, контролнет только-только завезли, ip-adapter там какой-то свой аналог, ещё какой-то gguf для ускорения...
И ещё ComfyUI Desktop V1 скоро выходит!
У FLUX есть определенная специфика, это безусловно. Модели LoRA, Controlnet или другие тоже нужны специфические, под FLUX, но это не так сложно как кажется, просто нужно использовать модель-специфичные ноды (а иногда и старые). Что касается K-Sampler, то важно понимать какие настройки использовать и можно работать в старых workflow (у FLUX есть специфика с CFG и guidance).
Изображение не обязательно 1024 x 1024. В отличие от Stable Diffusion, FLUX очень хорошо работает с разными разрешениями и соотношениями сторон. Вообще считается, что он генерирует картинки от 1 до 2 мегапикселей, размеры можно подобрать в соответствии с этим.
Эх, такого бы разьясналу мне год назад когда за комфи я брался раза три и бросал нафиг)))) но разобраться в нем это лучшее что со мной случилось))) ибо воркфлошки это топчик.
Я и щас бросаю, концептуально но неудобно.
Вникаю уже неделю и пока ничего нормально, сам с нуля так и не собрал. 😂
@@havemoney тут дело не в концептуальности. Это просто очень распространенный способ управления с помощью нод. Испльзуется в куче профессионального софта в разных отраслях именно из-за гибкости и множества возможностей
@@SkeggiUlrich (Важное в конце) Ноды понятно, неудобно то что есть конфликты нодов, скачивая процесс не всегда ясно что за модели нужны и то самое главное, вероятно все неудобства в прошлом, в не браузерной версии все эти вопросы порешали. Есть превью моделей, есть авто загрузка недостающих моделей. Стало удобней.
@@havemoneyразве десктоп версия уже вышла?
на 3060ti же заведется?
@@Lynatik001 да, квантизованные модели gguf будут работать.
Да и полные заведутся. Там же в системе есть общая память, если выделенной не хватает, то из оперативной памяти добавляется недостающая память. Надо просто иметь достаточно оперативки
У меня 3060. Полет отличный.
В фордже даже настройка есть для этого
Что такое фаундер и элэмэска?
у него почти на всех английских словах свое собственное ударение)
Здравствуйте.хочу заняться саморазвитием по Ai, посоветуйте пожалуйста какой комп на основе Windows купить,(инфу про Mac book тоже учла)
Благодарю за видео очень полезный канал.
Любой, 32Гб оперативки или более, и минимум 16Гб видеокарта
на 4pda есть форум и соответствующий топик по рекомендациям компьютера. Пишете туда запрос со своим бюджетом и посоветуют. Мне там советовали комп и ноут. А с ноутом так вообще ссылку на выгодный кинули.
Спасибо за видео, но качество 720p 😢
У меня вопрос, может кто-то ответит. Вы замечали такой ньюанс в работе нейросетей, что при одном и том же промпте, на этапе первых генераций результат обычно “так себе”, но спустя 100, 200, 500 генераций, качество генерации сильно возрастает.
От чего это зависит? В нейросети есть какой-то дополнительный код, который раскрывает постепенно всю возможность нейросети. Или это какой-то маркетинговый код, чтобы человек в любом случае получил нужный результат. Что это?
Я заметил это ещё с mj4. Mj и Flux от разных разработчиков. Хотя schnell оч похож на mj4. И у них определенно есть такая общая черта. То, что Flux на локалке дообучается, так себе идея.
Это одно из самых удивительных наблюдений и один из самых интересных комментариев, которые мне доводилось читать.
Вполне возможно, что происходит изменение генерации в зависимости от количества повторений с одним и тем же промптом, но я на практике никогда не сталкивался с описанным выше поведением.
@C0D3633K при этом, я пробовал с разными промптами: от легких и банальных, до очень сложных. Нейросеть в первых 50 генерациях даёт обобщающее изображение (возможно мейнстримное). Где-то на 200 уже меняется композиция в более сложную вариацию. На 300 освещение может меняться в лучшую сторону, очень заметно. На 500 иногда бывает какой-то баг, сложно сказать, но нейросеть начинает выдавать безумные результаты, словно у нейросети открывается второе дыхание. Видимо нейросеть уже начинает искать в своей базе такие референсы, которые ею отброшены в самый дальний ящик.
Проверять такое конечно стоит на чем-то сложном и конкретном. Тогда глаз сразу бросается, что результат сильно отличается. Но, возможно, что нейросеть просто крутит внутри себя что-то вроде Sampling steps, только какой-то внутренний и скрытый.
@@inquader3448 подтверждаю, встречал такое. попробовал нейросети, затянуло как хобби. сд 1.5, потом пони и тут флакс вышел. обновил видяху и давай играться. много дней генерил все что в голову приходило, комп не перезагружался несколько дней (он же сервер на работе, мощности позволяют) я не знаю, как много было генераций, прежде чем его переклинило. набил что-то абстрактное в промпте, выкрутил батч сайз на дофига и свалил домой. потом, просматривая результаты, увидел, что в этой партии генерации в какой-то момент сэмплы начали сваливаться в пиксельное нечто, потом черные квадраты, размазня... через сэмплов 10 полезло ОНО. стиль полностью изменился, я бы не сказал, лучше или хуже, он просто стал другим. что именно было, я уже и не упомню, просто я запомнил эту ситуацию из-за этого глюка. я тогда знатно удивился, почесал репу "наверное, перетрудилась, бедняжка", удалил все нафиг и ребутнул сервер))). так что да, такое возможно
Не понял зачем делать было цепочку с добавлением слова глиняный если у вас модель натренирована на пластелинновой вороне. А так интересно.
Для LoRA это фраза-активатор.
ААХААХАХ с пластелина ОРУ!!!
А почему комфа, а не комфи? Видео интересное.
Генерация работает нормально, а импейнтинг глючит - вместо очков перекорежило лицо в хлам. Подскажите, что пошло не так?
Пробуйте разные модели, поэкспериментируйте со значением Denoise.
спасибо за видео, очень интересно. Но вот вопрос, честно пока непонятно как с этого всего зарабатывать можно, вначале видео, вы сказали что у вас бизнес, и что вы бизнессмен. В чем заработок на этом, если это всё можно скачать и делать самим, и как же зарабатывать на этом всём? если конечно не секрет. Спасибо
Осваиваете все, затем записываете бесплатные видео "основы flux и comfyui", а потом проводите дополнительные уроки за деньги, или какую-нибудь подписку на бусти, где уже обещаете еще больше полезной информации)
ну, установить 1С или ERP тоже можно самостоятельно. Но инсталяции, адаптации, обучении, поддержке и обновлении зарабатывают огромное количество компаний
Фласк и без Комфи хорошо работает на Форже
Точно.
Один вопрос как это все делать ы онлайне не нагружая свой старый комп и древнюю видеокарту
В других сетках. Матжорни., креа, леонардо, от сбеоа кака ето. И тд и тп
@@user-sy4sq1ck3e ноды и флюкс это главное самая топовая модель генерации
Так написано же -- арендуем мощности у поставщиков, несколько генераций за доляр. Где-то дают чуть-чуть попользоваться на халяву. Кандинский от Сбера, вроде, бесплатно.
@@ShadeAKAhayate Кандинский от Сбера это тупая нейросеть, вчера написал промт сгенерировать космонавта он мне машину сгенерировал
арендовать мощности удаленные. с помесячной или почасовой оплатой. Сам изучаю этот рынок.
На подходе SANA (Саня), если не скам обещают рендеринг в 4к за 1 минуту на 4060 16gb
стоит посмотреть как правильно называются сервисы ИИ и правильно их называть и ставить ударения))) может кого то это не парит но человеку который очень давно в этой сфере ужасно режет ухо при назывании
Да, что-то на меня нашло в тот день )))
На Forg 2.0 то же работает модель
flow для ComfyUI появился, маркетологи выдохнут -)))
комфИ юай
В пастельных тонах .. ахаха))))
Одни фаундеры и инфоцыгане