Здравствуйте! Отличное видео, спасибо за полезную информацию. У меня есть вопрос: возможно ли дообучить модель LLaMA 3.1 8B на GPU NVIDIA 3090 с 32 ГБ ОЗУ без применения квантизации, но с использованием LoRA ? И если я приобрету вторую 3090 и увеличу объем ОЗУ до 64 ГБ, смогу ли я провести полное обучение модели без квантизации и LoRA? Буду признателен за ответ. Спасибо!
Спасибо за видео! Возможно стоит попробовать LLaMA-3.1-8B-Instruct (именно Instruct-версию) у меня она на MT-Bench показала 8.4 для английского языка и 6.9 для русского.
Спасибо. Очень интересно. Особенно порадовала идея автора публиковать. Копия экрана. Попробую повторить его подвиг. Копия экрана будет полезна.
Так, в чем была причина обрыва ответов? Какое-то видео тоже с обрывом :D
Здравствуйте! Отличное видео, спасибо за полезную информацию. У меня есть вопрос: возможно ли дообучить модель LLaMA 3.1 8B на GPU NVIDIA 3090 с 32 ГБ ОЗУ без применения квантизации, но с использованием LoRA ? И если я приобрету вторую 3090 и увеличу объем ОЗУ до 64 ГБ, смогу ли я провести полное обучение модели без квантизации и LoRA? Буду признателен за ответ. Спасибо!
Спасибо за видео!
Возможно стоит попробовать LLaMA-3.1-8B-Instruct (именно Instruct-версию) у меня она на MT-Bench показала 8.4 для английского языка и 6.9 для русского.
Спасибо за урок. Этот тюнинговый модель потом можно использовать с OLlama curl API ?
Можно ли у вас получить консултацию на платной основе?
Там модели в конце июля вроде как обновили или поправили, в оригинальном репозитории. Может ушли обрывы.
Сделай плиз обзор моделей именно по кодогенерации
а там и нечего делать, DeepSeek Coder V2 рвет всех
Видео непонятное сухое бесполезное
учитывая ситуацию с ютубом в россии рекомендую валить из россии и не из ютуба))
Ну так а чего тогда ты тут небо коптишь? :-)
Слишком много работы в России. Некогда.
Судя по количеству используемых в единицу времени местоимений "Я" автор явно страдает манией величия. :-D
Ох уж эти мамкины психологи
@@mixfir8173 Возразить по существу есть что? :-)