Спасибо! Но до EfficientNet_v2 и ViT ещё нужно дойти эволюционным путём. Всё-таки это 2021 год, а я пока ещё над 2016 работаю. Но с вашей поддержкой и моими стараниями не просто дойдём до современности, но и возьмёмся за другую задачу компьютерного зрения. Не спроста же я разметку для задачи сегментации делаю...
Исходные коды я никуда не выкладывал, но в видео (ссылка с меткой времени), th-cam.com/video/oqJpfZ30EsU/w-d-xo.html я показал откуда я взял базу и даже показал откуда этот человек их взял. Однако в каждом последующем видео, я могу в код что-то добавлять-изменять. Но иногда буду делать рефакторинг, где всё видео будет посвящено исправлением. Как раз следующее видео будет именно таким. Но в любом случае я не планирую выкладывать код с возможностью Copy/Paste.
Так количество воркеров и размер батча не связаны, если вы имеете ввиду тот момент, когда я был вынужден снижать размер батча. Ведь только так я мог управлять потребляемой памятью, чтобы поместиться в видеокарту. В качестве функции потери, для всех исследуемых моделей использую классическую CrossEntropyLoss. В конце видео под номером 11 продемонстрирован весь код, который сейчас используется. А в двух последующих видео показаны устранение обнаруженных багов.
Как мы убедились просто накидывание слоёв ничего не даёт, сразу было понятно что сети не хватает разрешения изображения, как только оно увеличилось, сразу выросла точность. На небольших разрешениях можно было поиграться числом фильтров. Автор протиестил сети как они есть без изменений так что норм
Там если начать менять, то можно зависнуть. Поэтому решил всё оставить по умолчанию. И то вначале не играл коэффициентами обучения, а затем уже начал подбирать их. Но я планирую обучить все модели при похожих условиях. Но всё равно не внося изменения в базовую архитектуру модели. Об этом сделаю отдельное видео.
Благодарю за лекцию, Ваш канал ценная находка :)
Спасибо, буду стараться держать качество :)
Обзоры архитектур и тесты архитектур у вас как всегда шикарные.
Буду стараться держать марку :). Спасибо за тёплые слова
Очень хорошо, спасибо автору за проделанную работу
Работа действительно проделана большая, но и архитектура ResNet легендарная, она заслуживает повышенного внимания. Спасибо за отзыв
Автору - громадное СПАСИБО!
Ждём историю EfficientNet_v2 и VisionTransformer как State of the Art in Computer Vision ...
Спасибо!
Но до EfficientNet_v2 и ViT ещё нужно дойти эволюционным путём. Всё-таки это 2021 год, а я пока ещё над 2016 работаю. Но с вашей поддержкой и моими стараниями не просто дойдём до современности, но и возьмёмся за другую задачу компьютерного зрения. Не спроста же я разметку для задачи сегментации делаю...
Спасибо за видео. Исходники где то есть посмотреть?
Исходные коды я никуда не выкладывал, но в видео (ссылка с меткой времени), th-cam.com/video/oqJpfZ30EsU/w-d-xo.html я показал откуда я взял базу и даже показал откуда этот человек их взял.
Однако в каждом последующем видео, я могу в код что-то добавлять-изменять. Но иногда буду делать рефакторинг, где всё видео будет посвящено исправлением. Как раз следующее видео будет именно таким.
Но в любом случае я не планирую выкладывать код с возможностью Copy/Paste.
Спасибо хорошо очень, хорошо что упоминаете авторов
в этой серии видео про авторов рассказываю, но всё равно есть мысли убрать этот блок. Или рассказывать только про соотечественников
@@Motskin_AI просто в некоторых видосах говорят "мы взяли какую-то сетку у китайцев, обучили и выиграли Кэгл", это не уважение к авторам
@@Motskin_AI можно оставить про соотечественников, это будет хорошо
Разве нельзя было уменьшить количество воркеров без уменьшения батча? И какую loss-f вы используете, подскажите, пожалуйста.
Так количество воркеров и размер батча не связаны, если вы имеете ввиду тот момент, когда я был вынужден снижать размер батча. Ведь только так я мог управлять потребляемой памятью, чтобы поместиться в видеокарту.
В качестве функции потери, для всех исследуемых моделей использую классическую CrossEntropyLoss. В конце видео под номером 11 продемонстрирован весь код, который сейчас используется. А в двух последующих видео показаны устранение обнаруженных багов.
@@Motskin_AI ок, спасибо за ответ
Как мы убедились просто накидывание слоёв ничего не даёт, сразу было понятно что сети не хватает разрешения изображения, как только оно увеличилось, сразу выросла точность. На небольших разрешениях можно было поиграться числом фильтров. Автор протиестил сети как они есть без изменений так что норм
Там если начать менять, то можно зависнуть. Поэтому решил всё оставить по умолчанию. И то вначале не играл коэффициентами обучения, а затем уже начал подбирать их. Но я планирую обучить все модели при похожих условиях. Но всё равно не внося изменения в базовую архитектуру модели. Об этом сделаю отдельное видео.