Очень хорошо, спасибо автору за проделанную работу
@Motskin_AI9 ай бұрын
Работа действительно проделана большая, но и архитектура ResNet легендарная, она заслуживает повышенного внимания. Спасибо за отзыв
@zaharvarfolomeev15369 ай бұрын
Благодарю за лекцию, Ваш канал ценная находка :)
@Motskin_AI9 ай бұрын
Спасибо, буду стараться держать качество :)
@АлександрПетровский-я7б9 ай бұрын
Автору - громадное СПАСИБО! Ждём историю EfficientNet_v2 и VisionTransformer как State of the Art in Computer Vision ...
@Motskin_AI9 ай бұрын
Спасибо! Но до EfficientNet_v2 и ViT ещё нужно дойти эволюционным путём. Всё-таки это 2021 год, а я пока ещё над 2016 работаю. Но с вашей поддержкой и моими стараниями не просто дойдём до современности, но и возьмёмся за другую задачу компьютерного зрения. Не спроста же я разметку для задачи сегментации делаю...
@dead-maxim9 ай бұрын
Обзоры архитектур и тесты архитектур у вас как всегда шикарные.
@Motskin_AI9 ай бұрын
Буду стараться держать марку :). Спасибо за тёплые слова
@glukis79709 ай бұрын
Спасибо за видео. Исходники где то есть посмотреть?
@Motskin_AI9 ай бұрын
Исходные коды я никуда не выкладывал, но в видео (ссылка с меткой времени), kzbin.info/www/bejne/paKtoZmQaJV4qbc я показал откуда я взял базу и даже показал откуда этот человек их взял. Однако в каждом последующем видео, я могу в код что-то добавлять-изменять. Но иногда буду делать рефакторинг, где всё видео будет посвящено исправлением. Как раз следующее видео будет именно таким. Но в любом случае я не планирую выкладывать код с возможностью Copy/Paste.
@blackbigdeath5 ай бұрын
Спасибо хорошо очень, хорошо что упоминаете авторов
@Motskin_AI5 ай бұрын
в этой серии видео про авторов рассказываю, но всё равно есть мысли убрать этот блок. Или рассказывать только про соотечественников
@blackbigdeath5 ай бұрын
@@Motskin_AI просто в некоторых видосах говорят "мы взяли какую-то сетку у китайцев, обучили и выиграли Кэгл", это не уважение к авторам
@blackbigdeath5 ай бұрын
@@Motskin_AI можно оставить про соотечественников, это будет хорошо
@zavodkeros6 ай бұрын
Разве нельзя было уменьшить количество воркеров без уменьшения батча? И какую loss-f вы используете, подскажите, пожалуйста.
@Motskin_AI6 ай бұрын
Так количество воркеров и размер батча не связаны, если вы имеете ввиду тот момент, когда я был вынужден снижать размер батча. Ведь только так я мог управлять потребляемой памятью, чтобы поместиться в видеокарту. В качестве функции потери, для всех исследуемых моделей использую классическую CrossEntropyLoss. В конце видео под номером 11 продемонстрирован весь код, который сейчас используется. А в двух последующих видео показаны устранение обнаруженных багов.
@zavodkeros6 ай бұрын
@@Motskin_AI ок, спасибо за ответ
@blackbigdeath5 ай бұрын
Как мы убедились просто накидывание слоёв ничего не даёт, сразу было понятно что сети не хватает разрешения изображения, как только оно увеличилось, сразу выросла точность. На небольших разрешениях можно было поиграться числом фильтров. Автор протиестил сети как они есть без изменений так что норм
@Motskin_AI5 ай бұрын
Там если начать менять, то можно зависнуть. Поэтому решил всё оставить по умолчанию. И то вначале не играл коэффициентами обучения, а затем уже начал подбирать их. Но я планирую обучить все модели при похожих условиях. Но всё равно не внося изменения в базовую архитектуру модели. Об этом сделаю отдельное видео.