2:08 как я понял этот параметр работает как ускоритель тренировки. То есть сколько выделится vram для нашей задачи. Я выставил на всю катушку 20 , так как сталкивался уже с этим значением, только ранее я выставлял 23, а тут есть ограничения и это не плохо, так как я слышал, что админы колам могут и по шапке дать если их видеокарты напрягать очень сильно. PS Огромная благодарочка автору за блокнот системы RVC с поддержкой современных основных моделей системы "снежок"
Спасибо большое за видео! Очень понятно и информативно, только я также столкнулась с одной проблемой - модель создана, но при генерации каверов, он выдаёт тот же голос, что и присутствовал на вокале. То есть, попросту не поёт голосом самой модели, я несколько раз создавала сами модели, но точно также ничего не выходит, хотя вроде следовала тому, что указано было в ролике, и не понимаю в чëм может быть проблема.
Спасибо за подробное объяснение. Подскажите плиз, как быть, если у меня уже отделен голос от музыки. Не получится ли так, что нейросеть еще раз будет отделять и испортит голос?
RVC применяет к датасету только компрессор на этапе обработки данных, что не должно повлиять на качество. Если ты говоришь про генераторы каверов, то там вообще нет никаких доп обработок, только замена голоса.
Здравствуйте! Дело в том, что подключение к среде выполнения идет бесконечно, и из-за этого не могу скачать переделанный вокал. (В папке output вокал тоже не скачивается, выдает ошибку.)
Привет! А в датасет аудио надо загружать одним большим файлом? К примеру, у меня есть где-то 150 поделённых файликов с речью, каждый длительностью до 10-и секунд. Можно ли просто закинуть эти фалы в датасет, или же стоит слепить их в один?
Можно и одним и несколькими файликами, главное чтоб они все были в одном формате) Если файлы будут в разных форматах, модель получится без звука Ну и на будущее, лучше делать одним большим файлом
эта папка создается при запуске установки если у тебя в файловом менеджере дофига файлов, то зайди в *content* файл с вокалом так же можно загрузить через ячейку *"Загрузка файла с вокалом",* запускаешь ее и загружаешь туда свой файлик
Здравствуйте. Туториал хороший и первый раз сработал , но на второй раз с загруженным в правильную папку вав - файлом мне написали , что папка пуста. Так вот , хотелось бы уточнить - Такое возможно и , что делать в подобных случаях? *Я перезагружала , вставляла его заново , но мне несколько раз так писало.
Роботизированный голос модели появляется в нескольких случаях: *Маленький датасет* *Грязный датасет* _( то есть много шумов, либо чего-то другого )_ - голос в датасете должен быть четким, без лишних звуков *Недотренировка* _( мало потренировал(-а) )_ *Перетренировка* _( переборщил(-а) с эпохами )_ Исходя из этого думай что делать)
@@Politreesа как из аудио шумы убрать автоматически? А то у меня 20 минут датасет и небольшое шумы, будто с радио кто-то говорит на фоне. Может есть нейросеть какая-то?
скачиваешь 2 файла .pth и .index (расположение к ним есть на колабе) и через любой архиватор пакуешь их в zip, ничего сложного нужно только эти 2 файла запаковать, если будет что-то другое в архиве, то есть шанс что ничего не заработает
Возможно, на твоем Google Диске закончилась память, и из-за этого удалились файлы, необходимые для продолжения тренировки. Необходимо следить за памятью, чтоб не переполнялась. Если с памятью на диске всё в порядке, то, возможно, ты много раз пытался продолжить тренировку одной и той же модели. При многократном продолжении тренировки с одного и того же места чекпоинты могут сломаться. Других причин я, к сожалению, не знаю.
каждый день колаб дает 5 часов времени на работу (иногда меньше, зависит от настроения колаба =)) в твоем случае 3ч 20мин, скорее всего вылезло окно с подтверждением что ты не афк, не подтвердил - отключили от колаба (после простого отключения время все еще идет) лимиты спадают через 24 часа после первого запуска колаба то есть если ты запустил в 5 часов вечера, то на следующий день в 5 часов вечера лимиты спадут (может раньше, может позже)
качественный звук зависит от качественного звука, а не продолжительности датасета в среднем рекомендуется минут 20 датасета не менее 5 и не более 60 минут
@@GG-qx1jb 3 часа датасета многовато, как по мне. На 5-10 минутках можно достаточно хорошую модель сделать, если качество хорошее Да и в колабе нельзя более 60 минут датасет кидать, ругается ошибками. Более 60 это на локалку (Applio, Mangio)
FileNotFoundError: [Errno 2] No such file or directory: '/content/drive/MyDrive/TrainingModel/logs/Model_Name/0_gt_wavs' все делал как на видео, при этом этот файл есть в этой папке на диске
если это продолжение тренировки, то такое бывает, колаб иногда тупит модель у тебя как я понял так и называется, Model_Name, не менял имя? Если менял, то может быть и из за этого, просто введи имя своей модели в нужное поле и все пойдет
во вкладке "ТРЕНИРОВКА" написаны пути к файлам, внимательнее надо быть) Путь к .pth файлу: *TrainingModel / assets / weights / [имя модели].pth* Путь к .index файлу: *TrainingModel / logs / [имя модели] / added_IVF[id]_Flat_nprobe_1_[имя модели]_v2.index* *[имя модели]_e[...]_s[...].pth - это тоже модель* e - эпохи s - шаги
Для обучения модели требуется больше времени, чем 1 час. Создание качественной модели может занять от 3 до 6 часов, в зависимости от количества и качества предоставленных данных. Чем больше данных используется для обучения, тем медленнее идёт процесс, но при этом модель обучается лучше. Нейросеть может эффективнее работать с большим набором данных. И вот какой парадокс: Чем больше данных даем, тем дольше длится процесс обучения модели, но при этом она обучается быстрее. Поясню на примерах: * Если объём датасета составляет 5 минут, то для обучения модели потребуется примерно 800-1200 эпох. Каждая эпоха будет загружаться не более 30 секунд. * Если же объём датасета достигает 50 минут, то для обучения модели потребуется около 300-500 эпох. Загрузка каждой эпохи займёт не более 3 минут. Ускорение обучения заключается в уменьшении объема исходных данных, но его уменьшение может негативно повлиять на конечное качество модели, так что лучше подождать пару часиков и получить хорошую модельку)
> loss/d/total = 3.898 - Потери Дискриминатора (↓ - Хорошо различает сгенерированные данные) > loss/g/total = 31.207 - Потери Генератора (↓ - Создает более реалистичные данные) Что это значит?, потери дискриминатора красным цветом, это напрягает, словно процесс идет с какими то ошибками.... или так должно быть?
Это новая обнова такая, перенос показателей с графиков TensorBoard в текстовый формат. Не обращай внимания, позже, когда будет время, сделаю видео по TensorBoard и расскажу про этот новый вывод. Если просто, то генератор и дискриминатор тренируют твою модель голоса: Зеленый цвет - хорошо, моделька тренируется нормально. Красный цвет - в процесс тренировки попал небольшой шумок, и графики подскочили либо упали.
@@Politrees Спасибо за быстрый ответ, однако про шумок не понял, у меня там буквально огнем и мечом выжжены все левые звуки, запись фактически студийная, голосовые дефекты вроде hss тоже убраны, по этому странно.. что там за шумочки могли попасть. В любом случае спасибо, буду ждать результат и там будет видно :)
Алгоритмы у нейронки очень чувствительные, всё услышит, что не надо) А вообще такое поведение - норма, не бесконечно же ей учиться, в какой-то момент она просто выжмет все соки из вложенных в тренировку записей, и дальше уже пойдет перетренировка модели, ухудшение ее звучания. Модель добьется своего максимума и будет искать в записях любые мелкие детали, которые она упустила при тренировке, сюда входят: дыхание, шум, причмокивания и тому подобное. Даже если полностью, с корнем вырезать весь шум, он все равно его найдет.
В RVC не используются конфиги. Файлы модели: [Имя Модели].pth added_IVF[ID индекса]_Flat_nprobe_1_[Имя Модели]_v2.index Во вкладке с тренировкой модели, на колабе, прописаны пути к файлам, внимательнее надо быть)
RuntimeError: The expanded size of the tensor (12800) must match the existing size (0) at non-singleton dimension 1. Target sizes: [1, 12800]. Tensor sizes: [0] пытаюсь продолжить тренирвоку, но всё время вылазит это
@@irruni возможно частота дискретизации не совпадает с частотой претрейна Если все норм в этом плане, то попробуй папку TrainingModel на гугл диске удалить и заново скачать через блокнот
Здравствуйте, подскажите пожалуйста, как можно удалить низкий голос бэк вокала с акапеллы? Просто в итоге в моменте с этим бэк вокалом голос модели очень падает((
В плане сбилось? Если ты хочешь чтоб в интерфейсе сохранились все параметры которые ты вводишь, то тебе надо скопировать блокнот к себе на акк и от себя в него заходить. Свои параметры ты на моем блокноте никак не сохранишь.
@@Politrees ну я сделал голос так сказать готовый, уже сделал пару ремейков на тест, зашёл через пару часов и просто папки пропали, хотя на диске вроде даже что-то есть из того что я делал и это странно
@@DanilaPBS при тренировке модели она сохраняется на диск, так что ты ничего не потерял, не зря просидел) Просто найди нужные файлы, да скачай. Если хочешь продолжить тренировать, то надо просто открыть вкладку "Продолжение тренировки модели", там ничего сложного нет.
Что делать если на этапе тренировки модели происходит ошибка? FileNotFoundError: [Errno 2] No such file or directory: '/content/drive/MyDrive/TrainingModel/logs/ИМЯ_МОДЕЛИ/3_feature768'
Каждый день Colab предоставляет возможность бесплатного использования своей видеокарты в течение 1-5 часов в день. Лимиты установлены для каждого аккаунта, то есть вы можете зайти под другим аккаунтом и продолжить использование. Тренировка модели с переносом файлов на другой диск: th-cam.com/video/KlE55VALFVo/w-d-xo.html - тайм код привязан
Через приложение - да Так же можешь попробовать сайты: mvsep.com - для разделения песни и очистки от реверба и шумов auphonic.com - для очистки голоса (музыку лучше туда не закидывать, на выходе даст пустой звук, не переваривает ее, ну и там даётся только 2 часа в месяц)
Не работает, я хотел продолжить тренировку, проходит 30 секунд, и пишет что завершена, хотя у меня тренировка только 1000 эпох была, всего 1000 сделал и голос ужасно звучит, хотя тысяч так 6-7000 сделать, не получается, с других аккаунтов также
Для RVC более 1000 эпох это слишком много, так что не тренируй больше В твоем случае с ужасным звучанием могу только сказать что такое может быть в 3 случаях: 1. *Сам датасет ужасный, не почищен от лишних звуков/шумов и голос плохо слышно* 2. *Слишком маленький датасет, рекомендуется делать более 5 минут хотя бы* 2. *Ты перетренировал модель, скачай более ранние версии модели, проверь их* На счет того что не можешь продолжить тренировку: 1. *Ставишь меньшее количество эпох чем на последней версии модели, либо точно такое же* 2. *У тебя просто лимиты колаба и надо подождать некоторое время* *Вообще не рекомендую делать модели с более чем 500 эпохами* если хочешь подробнее узнать об этом всем, пиши в тг: t.me/+GMTP7hZqY0E4OGRi там если админы не спят все тебе расскажут
А можно wav файл на 12 минут закинуть? Хочу копию своего голоса сделать, я читал вслух длинный текст в полной тишине, а потом плагином удалил все паузы и тишину
@@Politrees а как это можно запустить на своем ПК? Видюха позволяет. И еще один вопрос: у меня уже 320 эпоха, а размер файла pth и качество голоса не меняется, так и должно быть?
Либо установка не была запущена, либо просто баг, перезагрузи колаб Сверху на сайте надо нажать на "среда выполнения " > "отключиться от среды выполнения и удалить ее"
Google Colab каждый день предлагает возможность бесплатно пользоваться своей видеокартой с ограничениями. Эти ограничения действуют для каждого аккаунта Google. Вы можете использовать Google Colab бесплатно от 1 до 5 часов каждый день. Ограничения сбрасываются через 24 часа после предыдущего использования. Можно на другой гугл аккаунт перейти и там тренировать.
Можешь помочь пожалуйста Установка претрейна » Snowie... The tensorboard extension is already loaded. To reload it, use: %reload_ext tensorboard Reusing TensorBoard on port 8888 (pid 6929), started 0:02:16 ago. (Use '!kill 6929' to kill it.) Запись списка файлов завершена Использование графических процессоров: 0 Запись файлов завершена Запуск программы... 2024-06-10 15:40:05.204012: E external/local_xla/xla/stream_executor/cuda/cuda_dnn.cc:9261] Unable to register cuDNN factory: Attempting to register factory for plugin cuDNN when one has already been registered 2024-06-10 15:40:05.204067: E external/local_xla/xla/stream_executor/cuda/cuda_fft.cc:607] Unable to register cuFFT factory: Attempting to register factory for plugin cuFFT when one has already been registered 2024-06-10 15:40:05.205966: E external/local_xla/xla/stream_executor/cuda/cuda_blas.cc:1515] Unable to register cuBLAS factory: Attempting to register factory for plugin cuBLAS when one has already been registered 2024-06-10 15:40:05.216647: I tensorflow/core/platform/cpu_feature_guard.cc:182] This TensorFlow binary is optimized to use available CPU instructions in performance-critical operations. To enable the following instructions: AVX2 FMA, in other operations, rebuild TensorFlow with the appropriate compiler flags. DEBUG:tensorflow:Falling back to TensorFlow client; we recommended you install the Cloud TPU client directly with pip install cloud-tpu-client. 2024-06-10 15:40:06.406070: W tensorflow/compiler/tf2tensorrt/utils/py_utils.cc:38] TF-TRT Warning: Could not find TensorRT DEBUG:h5py._conv:Creating converter from 7 to 5 DEBUG:h5py._conv:Creating converter from 5 to 7 DEBUG:h5py._conv:Creating converter from 7 to 5 DEBUG:h5py._conv:Creating converter from 5 to 7 DEBUG:jax._src.path:etils.epath found. Using etils.epath for file I/O. INFO:numexpr.utils:NumExpr defaulting to 2 threads. Traceback (most recent call last): File "/content/drive/MyDrive/TrainingModel/infer/modules/train/train.py", line 77, in from infer.lib.train.process_ckpt import savee File "/content/drive/MyDrive/TrainingModel/infer/lib/train/process_ckpt.py", line 8, in from i18n.i18n import I18nAuto ModuleNotFoundError: No module named 'i18n' Программа закрыта.
@@АбылханКастеев-ж2ю Ну это твоё мнение, за место того чтоб говорить что видео бесполезное, попытался бы написать и решить проблему. Я никому не запрещаю мне писать, все контакты указаны в описании.
@@Politrees а что так тебя задело ? ведь я написал что блокнот не открылся , и понятное дело что дальше всё бесполезно по крайней мере для меня , поверь я не хотел тебя задеть ни коем образом , так написал от злости , ведь я не только по твоим ссылкам пытался зайти в блокнот , извини если что не так , теперь я то точно знаю что дело в моём компе так как google диск не устанавливается у меня , тоже пишет ошибка и попробуйте позже .
Дай бог тебе здоровья, мужик. Я раньше пользовался KitsAI, но они скатились с донатом, а твой блокнот на коллабе - спасение
Спасибо! А то как раз сидел разобраться никак не мог, теперь хоть понятно стало!
спасибо большое, вы делаете мир лучше, желаю бесконечных печенек с чаем!!!
У меня наконец-то получилось.. Большая вам благодарность! 🙏
Однозначно лайк, отличная программа и обьяснения))
2:08 как я понял этот параметр работает как ускоритель тренировки. То есть сколько выделится vram для нашей задачи. Я выставил на всю катушку 20 , так как сталкивался уже с этим значением, только ранее я выставлял 23, а тут есть ограничения и это не плохо, так как я слышал, что админы колам могут и по шапке дать если их видеокарты напрягать
очень сильно.
PS Огромная благодарочка автору за блокнот системы RVC с поддержкой современных основных моделей системы "снежок"
Спасибо тебе большое я теперь научился делать модельки
Ура, спасибо большое за новое видео! ❤
Два дня долбился с Kaggle от AI singers, и ничего не заработало из бесплатных ноутбуков. А тут всё вроде пошло, эпохи тренятся. Спасибо!
Спасибо дядя мне очень понравилось
Спасибо большое тебе, мужик❤
Спасибо Politreеs👏
Что будет если продолжить тренировку на другом претрейне? Может ли это дать положительный результат или модель сломается?
У меня в тг чате кто-то проверял уже такое, ничего хорошего из этого не вышло)
а какой нужный размер датосэта для 48K?
Для всех sample_rate рекомендуемый размер 10-30 минут
Датасет должен быть не менее 1 минуты и не более 50 минут
спасибо
Придется привыкать к новому блокноту. Но было бы неплохо адаптировать старый блокнот, (Easy или как-то так он назывался). Он был попроще, прошлогодний
это и есть Easy, просто я его раскидал по вкладкам, чтоб меньше места в блокноте занимал
от души. работает
Спасибо, братан 👍
3:56 нужно ли при таком способе так же переносить подготовленный аудиофайл в папку dataset?
Если файл уже обрабатывался в ячейке "Обработка данный", то нет, переносить не нужно
Спасибо
Лучший
Спасибо большое за видео! Очень понятно и информативно, только я также столкнулась с одной проблемой - модель создана, но при генерации каверов, он выдаёт тот же голос, что и присутствовал на вокале. То есть, попросту не поёт голосом самой модели, я несколько раз создавала сами модели, но точно также ничего не выходит, хотя вроде следовала тому, что указано было в ролике, и не понимаю в чëм может быть проблема.
попробуй с галочкой check_error запустить и скинь скрин всего того что выдаст в тг: t.me/Politrees2
Решила проблему?
@@matryoshkin9446 На сколько я помню, проблема была в том, что модель обучалась на тишине, датасет был очень тихим.
@@Politrees пон
Спасибо за подробное объяснение. Подскажите плиз, как быть, если у меня уже отделен голос от музыки. Не получится ли так, что нейросеть еще раз будет отделять и испортит голос?
RVC применяет к датасету только компрессор на этапе обработки данных, что не должно повлиять на качество. Если ты говоришь про генераторы каверов, то там вообще нет никаких доп обработок, только замена голоса.
О, брат я тоже делаю аикавер на эту песню, только из ремикса
Здравствуйте!
Дело в том, что подключение к среде выполнения идет бесконечно, и из-за этого не могу скачать переделанный вокал. (В папке output вокал тоже не скачивается, выдает ошибку.)
попробуй через этот интерфейс сделать: th-cam.com/video/53aM8WZVcFM/w-d-xo.html
Доброго времени суток! Получается можно тренировать до бесконечности, но по чуть чуть?
Привет, да, но много эпох - это плохо, для модели достаточно 300-1200 эпох, в зависимости от датасета
Привет! А в датасет аудио надо загружать одним большим файлом? К примеру, у меня есть где-то 150 поделённых файликов с речью, каждый длительностью до 10-и секунд. Можно ли просто закинуть эти фалы в датасет, или же стоит слепить их в один?
Можно и одним и несколькими файликами, главное чтоб они все были в одном формате)
Если файлы будут в разных форматах, модель получится без звука
Ну и на будущее, лучше делать одним большим файлом
@@Politrees Спасибо
Сё я разобрался) все работает
6:19 нужно input папку создать или где ее найти,чтобы скинуть туда вокал?
эта папка создается при запуске установки
если у тебя в файловом менеджере дофига файлов, то зайди в *content*
файл с вокалом так же можно загрузить через ячейку *"Загрузка файла с вокалом",* запускаешь ее и загружаешь туда свой файлик
Спасиб большое)@@Politrees
Здравствуйте!
Что делать, если в папке weights есть только файл gitignore?
Upd: У меня оказывается просто баг случился.
Здравствуйте. Туториал хороший и первый раз сработал , но на второй раз с загруженным в правильную папку вав - файлом мне написали , что папка пуста. Так вот , хотелось бы уточнить - Такое возможно и , что делать в подобных случаях?
*Я перезагружала , вставляла его заново , но мне несколько раз так писало.
Напиши в тг: t.me/Politrees2
скрины нужны
что делать если голос модели получается как у робота
Роботизированный голос модели появляется в нескольких случаях:
*Маленький датасет*
*Грязный датасет* _( то есть много шумов, либо чего-то другого )_ - голос в датасете должен быть четким, без лишних звуков
*Недотренировка* _( мало потренировал(-а) )_
*Перетренировка* _( переборщил(-а) с эпохами )_
Исходя из этого думай что делать)
@@Politrees спасибо это была наверно из-за того что я делала маленький датасет а шумов не было и тренировала много
@@Politreesа как из аудио шумы убрать автоматически? А то у меня 20 минут датасет и небольшое шумы, будто с радио кто-то говорит на фоне. Может есть нейросеть какая-то?
auphonic.com попробуй
Либо mvsep.com
@@Politrees Спасибо, а если у меня полностью русский датасет и я поставлю претрейн snowie v3 допустим, у меня будут хуже каверы на английском?
а как сделать зипник чтобы на мегу загрузить?
скачиваешь 2 файла .pth и .index (расположение к ним есть на колабе) и через любой архиватор пакуешь их в zip, ничего сложного
нужно только эти 2 файла запаковать, если будет что-то другое в архиве, то есть шанс что ничего не заработает
а что должен содержать архив с моделью голоса?
2 файла
.pth
.index (который начинается на added)
Больше ничего, обязательно должен быть zip архив
@@Politrees а где найти .index?
Расположение файлов на колабе во вкладке тренировки же написаны
index лежит в папке logs/имя модели/
@@Politrees спасибо🥰
@@Politrees кст у меня получилось сделать ии кавер
4:55 что делать если она просто начинает с начала тренировать модель
Возможно, на твоем Google Диске закончилась память, и из-за этого удалились файлы, необходимые для продолжения тренировки. Необходимо следить за памятью, чтоб не переполнялась.
Если с памятью на диске всё в порядке, то, возможно, ты много раз пытался продолжить тренировку одной и той же модели. При многократном продолжении тренировки с одного и того же места чекпоинты могут сломаться.
Других причин я, к сожалению, не знаю.
@@Politrees спасибо, помогло.
Актуально ли на данный момент? Там обнова 31.03.2024, а у тебя от 22.03.2024.
А то что много различий появилось
Если запустить, то планета взорвётся
Из изменений на 31.03.24 только обновление 1 и 2 вариантов генератора каверов
3ч 20 мин можно тренировать в день или в неделю-месяц?
каждый день колаб дает 5 часов времени на работу (иногда меньше, зависит от настроения колаба =))
в твоем случае 3ч 20мин, скорее всего вылезло окно с подтверждением что ты не афк, не подтвердил - отключили от колаба (после простого отключения время все еще идет)
лимиты спадают через 24 часа после первого запуска колаба
то есть если ты запустил в 5 часов вечера, то на следующий день в 5 часов вечера лимиты спадут (может раньше, может позже)
@@Politrees спасибо
А возможно как-то это голосовую модель использовать в реальном времени?
возможно, через прогу Real-Time Voice Changer
@@Politrees попробую)
А сколько рекомендовано датасета в минутах, чтобы был качественный звук?
качественный звук зависит от качественного звука, а не продолжительности датасета
в среднем рекомендуется минут 20 датасета
не менее 5 и не более 60 минут
@@Politrees 🙏
@@Politrees просто у качественных моделей было написано 3 часа датасета, и я задался таким вопросом
@@GG-qx1jb 3 часа датасета многовато, как по мне. На 5-10 минутках можно достаточно хорошую модель сделать, если качество хорошее
Да и в колабе нельзя более 60 минут датасет кидать, ругается ошибками. Более 60 это на локалку (Applio, Mangio)
А что если нету файла added index а только trained . Заново тренировать придется?
индекс не обязателен, его можно взять от любой другой модели
можешь в чат написать: t.me/+GMTP7hZqY0E4OGRi
может кто скинет свой индекс
FileNotFoundError: [Errno 2] No such file or directory: '/content/drive/MyDrive/TrainingModel/logs/Model_Name/0_gt_wavs' все делал как на видео, при этом этот файл есть в этой папке на диске
если это продолжение тренировки, то такое бывает, колаб иногда тупит
модель у тебя как я понял так и называется, Model_Name, не менял имя? Если менял, то может быть и из за этого, просто введи имя своей модели в нужное поле и все пойдет
а default это относится тоже к русскому или к английскому? мне просто нужно чтобы как в оригинале аудио обрабатывал женские голоса а не по другому
Дефолт - это английский претрейн
А где сам файл .pth и .index ? А то часа 2 ждала тренировку модели и ничего нет😢😢😢
во вкладке "ТРЕНИРОВКА" написаны пути к файлам, внимательнее надо быть)
Путь к .pth файлу:
*TrainingModel / assets / weights / [имя модели].pth*
Путь к .index файлу:
*TrainingModel / logs / [имя модели] / added_IVF[id]_Flat_nprobe_1_[имя модели]_v2.index*
*[имя модели]_e[...]_s[...].pth - это тоже модель*
e - эпохи
s - шаги
@@Politrees нашла спасибо)
@@Politrees а почему тренировка модели около часа происходит ? У вас так же? Как ускорить можно?
@@Politrees а почему тренировка модели около часа происходит ? У вас так же? Как ускорить можно?
Для обучения модели требуется больше времени, чем 1 час. Создание качественной модели может занять от 3 до 6 часов, в зависимости от количества и качества предоставленных данных.
Чем больше данных используется для обучения, тем медленнее идёт процесс, но при этом модель обучается лучше. Нейросеть может эффективнее работать с большим набором данных.
И вот какой парадокс:
Чем больше данных даем, тем дольше длится процесс обучения модели, но при этом она обучается быстрее.
Поясню на примерах:
* Если объём датасета составляет 5 минут, то для обучения модели потребуется примерно 800-1200 эпох. Каждая эпоха будет загружаться не более 30 секунд.
* Если же объём датасета достигает 50 минут, то для обучения модели потребуется около 300-500 эпох. Загрузка каждой эпохи займёт не более 3 минут.
Ускорение обучения заключается в уменьшении объема исходных данных, но его уменьшение может негативно повлиять на конечное качество модели, так что лучше подождать пару часиков и получить хорошую модельку)
> loss/d/total = 3.898 - Потери Дискриминатора (↓ - Хорошо различает сгенерированные данные)
> loss/g/total = 31.207 - Потери Генератора (↓ - Создает более реалистичные данные)
Что это значит?, потери дискриминатора красным цветом, это напрягает, словно процесс идет с какими то ошибками.... или так должно быть?
Это новая обнова такая, перенос показателей с графиков TensorBoard в текстовый формат. Не обращай внимания, позже, когда будет время, сделаю видео по TensorBoard и расскажу про этот новый вывод.
Если просто, то генератор и дискриминатор тренируют твою модель голоса:
Зеленый цвет - хорошо, моделька тренируется нормально.
Красный цвет - в процесс тренировки попал небольшой шумок, и графики подскочили либо упали.
@@Politrees Спасибо за быстрый ответ, однако про шумок не понял, у меня там буквально огнем и мечом выжжены все левые звуки, запись фактически студийная, голосовые дефекты вроде hss тоже убраны, по этому странно.. что там за шумочки могли попасть.
В любом случае спасибо, буду ждать результат и там будет видно :)
Алгоритмы у нейронки очень чувствительные, всё услышит, что не надо)
А вообще такое поведение - норма, не бесконечно же ей учиться, в какой-то момент она просто выжмет все соки из вложенных в тренировку записей, и дальше уже пойдет перетренировка модели, ухудшение ее звучания. Модель добьется своего максимума и будет искать в записях любые мелкие детали, которые она упустила при тренировке, сюда входят: дыхание, шум, причмокивания и тому подобное. Даже если полностью, с корнем вырезать весь шум, он все равно его найдет.
@@Politrees Спасибо за подробные разъяснения, я понял
=)
А можно ли поменять модель pretrain которую нету в этом гугл колабе?
а какого претрейна нет?
вроде все что есть добавил
поменять можно, но сложно, код надо менять
Где найти правильный файл config.json, а то у меня прога вылетает из-за тех конфигов, что я скачивал?
В RVC не используются конфиги.
Файлы модели:
[Имя Модели].pth
added_IVF[ID индекса]_Flat_nprobe_1_[Имя Модели]_v2.index
Во вкладке с тренировкой модели, на колабе, прописаны пути к файлам, внимательнее надо быть)
0:56 я не совсем понял, какие именно файлы туда нужно кидать, модель голоса?
в датасет нужно кидать файлы с записанным голосом
@@Politrees понял, спасибо
RuntimeError: The expanded size of the tensor (12800) must match the existing size (0) at non-singleton dimension 1. Target sizes: [1, 12800]. Tensor sizes: [0]
пытаюсь продолжить тренирвоку, но всё время вылазит это
первый раз такую ошибку вижу, пришли скринов в тг: t.me/Politrees2
@@Politrees та же самая ошибка, удалось решить проблему?
@@irruni возможно частота дискретизации не совпадает с частотой претрейна
Если все норм в этом плане, то попробуй папку TrainingModel на гугл диске удалить и заново скачать через блокнот
тренеровка остановилась из за ограничений гугла,а файл индекс не сохранился.При попытки продолжить тренеровку она начинается заново
Бывает такое, если на гугл диске места мало, либо баг 🤷♂️
Здравствуйте, подскажите пожалуйста, как можно удалить низкий голос бэк вокала с акапеллы? Просто в итоге в моменте с этим бэк вокалом голос модели очень падает((
попробуй голос почистить на этом сайте - auphonic.com
при генерации мне постоянно выдает ошибку что делать в таком случае?
Уже исправил, пробуй по новой.
Переделал полностью второй генератор.
@@Politrees огромное спасибо!!!!
А что если есть нужна натренировать больше 2000 эпох? Есть какое-нибудь решение?
отредактировать код можно, увеличить лимит
Нажми на ячейке "Показать код" и ищи там строчку max:2000
@@Politrees Спасибо!
Еще вопрос: можно ли менять Pretrain? Или это сломает модель?
на одной модели один претрейн
@@Politrees И еще: не знаете случайно, на с каких эпохах модель будет перетренировываться?
А что делать, если при заходе позже всё будто бы сбилось непонятно почему, все файлы на месте
В плане сбилось?
Если ты хочешь чтоб в интерфейсе сохранились все параметры которые ты вводишь, то тебе надо скопировать блокнот к себе на акк и от себя в него заходить. Свои параметры ты на моем блокноте никак не сохранишь.
@@Politrees блин, я больше часа получается в пустую потратил, ладно. Попробую снова
а что сбилось то? я не очень понял, конкретики бы больше
@@Politrees ну я сделал голос так сказать готовый, уже сделал пару ремейков на тест, зашёл через пару часов и просто папки пропали, хотя на диске вроде даже что-то есть из того что я делал и это странно
@@DanilaPBS при тренировке модели она сохраняется на диск, так что ты ничего не потерял, не зря просидел)
Просто найди нужные файлы, да скачай. Если хочешь продолжить тренировать, то надо просто открыть вкладку "Продолжение тренировки модели", там ничего сложного нет.
Что делать если на этапе тренировки модели происходит ошибка?
FileNotFoundError: [Errno 2] No such file or directory: '/content/drive/MyDrive/TrainingModel/logs/ИМЯ_МОДЕЛИ/3_feature768'
а, извиняюсь, твой комм в спам попал.
Эта ошибка вылезла при первой тренировке или при продолжении?
Каждый день Colab предоставляет возможность бесплатного использования своей видеокарты в течение 1-5 часов в день.
Лимиты установлены для каждого аккаунта, то есть вы можете зайти под другим аккаунтом и продолжить использование.
Тренировка модели с переносом файлов на другой диск:
th-cam.com/video/KlE55VALFVo/w-d-xo.html - тайм код привязан
а что делать если наложили ограничение на GPU?
Либо ждать 24 часа, либо на другой акк переходить, если хочешь тренировку продолжить, то в видео на счёт этого есть момент
это уже не работает?
@@MuratovNodir все работает, вчера тренировал модель.
не могу найти файл added... .index, а в папке assets .pth файл скачал
что делать?
можешь любой другой index взять, от другой модели
меня немного смущает день когда вышел этот ролик
)
Я первый
что делать, если в колабе датасет загружается очень долго, размер даже не 1 гб, но при этом грузит больше часа?
Советую большие датасеты грузить на гугл диск, у колаба на всем скорости низкие, что при скачивании, что при загрузке
@@Politrees а убирать лишние звуки и шумы можно с помощью ultimate vocal remover?
Через приложение - да
Так же можешь попробовать сайты:
mvsep.com - для разделения песни и очистки от реверба и шумов
auphonic.com - для очистки голоса (музыку лучше туда не закидывать, на выходе даст пустой звук, не переваривает ее, ну и там даётся только 2 часа в месяц)
@@Politrees а есть приложения по типу rvc gui, но чтобы было побольше настроек?
кроме Applio и Mangio ничего на пк не знаю, можешь попробовать их, там настроек побольше думаю будет
Не работает, я хотел продолжить тренировку, проходит 30 секунд, и пишет что завершена, хотя у меня тренировка только 1000 эпох была, всего 1000 сделал и голос ужасно звучит, хотя тысяч так 6-7000 сделать, не получается, с других аккаунтов также
Для RVC более 1000 эпох это слишком много, так что не тренируй больше
В твоем случае с ужасным звучанием могу только сказать что такое может быть в 3 случаях:
1. *Сам датасет ужасный, не почищен от лишних звуков/шумов и голос плохо слышно*
2. *Слишком маленький датасет, рекомендуется делать более 5 минут хотя бы*
2. *Ты перетренировал модель, скачай более ранние версии модели, проверь их*
На счет того что не можешь продолжить тренировку:
1. *Ставишь меньшее количество эпох чем на последней версии модели, либо точно такое же*
2. *У тебя просто лимиты колаба и надо подождать некоторое время*
*Вообще не рекомендую делать модели с более чем 500 эпохами*
если хочешь подробнее узнать об этом всем, пиши в тг: t.me/+GMTP7hZqY0E4OGRi
там если админы не спят все тебе расскажут
А можно wav файл на 12 минут закинуть? Хочу копию своего голоса сделать, я читал вслух длинный текст в полной тишине, а потом плагином удалил все паузы и тишину
не можно, а нужно
@@Politrees а как это можно запустить на своем ПК? Видюха позволяет. И еще один вопрос: у меня уже 320 эпоха, а размер файла pth и качество голоса не меняется, так и должно быть?
ModuleNotFoundError Traceback (most recent call last)
in ()
65
66 import numpy as np
---> 67 import faiss
68
69 def train_index(exp_dir1, version19):
ModuleNotFoundError: No module named 'faiss'
В чем проблема?
попробуй папку TrainingModel с диска снести (в корзине тоже удали) и по новой все запустить
@@Politrees Спасибо, помогло!
нету датесата
Либо установка не была запущена, либо просто баг, перезагрузи колаб
Сверху на сайте надо нажать на "среда выполнения " > "отключиться от среды выполнения и удалить ее"
Мля брат, я пытался научить нейронку голосом Путина , никуя не получается. Попробуй ты, потом скинь видео. Исключительно для приколов на друзьями
зайди на сайт weights.gg, потыкай, там тебе и модели и генерация каверов
А примерно через какое время снимается лимит с аккаунта в колабе, через 24 часа после старта тренировки?
Google Colab каждый день предлагает возможность бесплатно пользоваться своей видеокартой с ограничениями. Эти ограничения действуют для каждого аккаунта Google.
Вы можете использовать Google Colab бесплатно от 1 до 5 часов каждый день. Ограничения сбрасываются через 24 часа после предыдущего использования.
Можно на другой гугл аккаунт перейти и там тренировать.
Можешь помочь пожалуйста
Установка претрейна » Snowie...
The tensorboard extension is already loaded. To reload it, use:
%reload_ext tensorboard
Reusing TensorBoard on port 8888 (pid 6929), started 0:02:16 ago. (Use '!kill 6929' to kill it.)
Запись списка файлов завершена
Использование графических процессоров: 0
Запись файлов завершена
Запуск программы...
2024-06-10 15:40:05.204012: E external/local_xla/xla/stream_executor/cuda/cuda_dnn.cc:9261] Unable to register cuDNN factory: Attempting to register factory for plugin cuDNN when one has already been registered
2024-06-10 15:40:05.204067: E external/local_xla/xla/stream_executor/cuda/cuda_fft.cc:607] Unable to register cuFFT factory: Attempting to register factory for plugin cuFFT when one has already been registered
2024-06-10 15:40:05.205966: E external/local_xla/xla/stream_executor/cuda/cuda_blas.cc:1515] Unable to register cuBLAS factory: Attempting to register factory for plugin cuBLAS when one has already been registered
2024-06-10 15:40:05.216647: I tensorflow/core/platform/cpu_feature_guard.cc:182] This TensorFlow binary is optimized to use available CPU instructions in performance-critical operations.
To enable the following instructions: AVX2 FMA, in other operations, rebuild TensorFlow with the appropriate compiler flags.
DEBUG:tensorflow:Falling back to TensorFlow client; we recommended you install the Cloud TPU client directly with pip install cloud-tpu-client.
2024-06-10 15:40:06.406070: W tensorflow/compiler/tf2tensorrt/utils/py_utils.cc:38] TF-TRT Warning: Could not find TensorRT
DEBUG:h5py._conv:Creating converter from 7 to 5
DEBUG:h5py._conv:Creating converter from 5 to 7
DEBUG:h5py._conv:Creating converter from 7 to 5
DEBUG:h5py._conv:Creating converter from 5 to 7
DEBUG:jax._src.path:etils.epath found. Using etils.epath for file I/O.
INFO:numexpr.utils:NumExpr defaulting to 2 threads.
Traceback (most recent call last):
File "/content/drive/MyDrive/TrainingModel/infer/modules/train/train.py", line 77, in
from infer.lib.train.process_ckpt import savee
File "/content/drive/MyDrive/TrainingModel/infer/lib/train/process_ckpt.py", line 8, in
from i18n.i18n import I18nAuto
ModuleNotFoundError: No module named 'i18n'
Программа закрыта.
ща исправлю, чуть позже попробуй еще раз
@@Politrees все еще
@@ggpokerokballar папку TrainingModel переустанови
удали ее с диска и запусти "Установка RVC"
я об этом в ТГК писал 4 дня назад, можешь глянуть
Что делать если индекс не качается?
Я пофиксил.Парни если у вас такая проблема то страницу перезагрузите
Пишет что ошибка блокнота , бесполезное видео как и пред идущие
@@АбылханКастеев-ж2ю Ну это твоё мнение, за место того чтоб говорить что видео бесполезное, попытался бы написать и решить проблему. Я никому не запрещаю мне писать, все контакты указаны в описании.
@@Politrees а что так тебя задело ? ведь я написал что блокнот не открылся , и понятное дело что дальше всё бесполезно по крайней мере для меня , поверь я не хотел тебя задеть ни коем образом , так написал от злости , ведь я не только по твоим ссылкам пытался зайти в блокнот , извини если что не так , теперь я то точно знаю что дело в моём компе так как google диск не устанавливается у меня , тоже пишет ошибка и попробуйте позже .
Меня не задело, я просто написал что можно было ко мне обратиться, я бы возможно помог с проблемой.
@@Politrees Я нашёл причину по которой у меня не устанавливался блокнот , большое тебе спасибо за видео , с меня лайк , подписка , донат !