010 Классификация изображений. Часть 4. ResNet (2015)

  Рет қаралды 490

Мотькин ИИ

Мотькин ИИ

Күн бұрын

Пікірлер: 19
@maxb9130
@maxb9130 9 ай бұрын
Очень хорошо, спасибо автору за проделанную работу
@Motskin_AI
@Motskin_AI 9 ай бұрын
Работа действительно проделана большая, но и архитектура ResNet легендарная, она заслуживает повышенного внимания. Спасибо за отзыв
@zaharvarfolomeev1536
@zaharvarfolomeev1536 9 ай бұрын
Благодарю за лекцию, Ваш канал ценная находка :)
@Motskin_AI
@Motskin_AI 9 ай бұрын
Спасибо, буду стараться держать качество :)
@АлександрПетровский-я7б
@АлександрПетровский-я7б 9 ай бұрын
Автору - громадное СПАСИБО! Ждём историю EfficientNet_v2 и VisionTransformer как State of the Art in Computer Vision ...
@Motskin_AI
@Motskin_AI 9 ай бұрын
Спасибо! Но до EfficientNet_v2 и ViT ещё нужно дойти эволюционным путём. Всё-таки это 2021 год, а я пока ещё над 2016 работаю. Но с вашей поддержкой и моими стараниями не просто дойдём до современности, но и возьмёмся за другую задачу компьютерного зрения. Не спроста же я разметку для задачи сегментации делаю...
@dead-maxim
@dead-maxim 9 ай бұрын
Обзоры архитектур и тесты архитектур у вас как всегда шикарные.
@Motskin_AI
@Motskin_AI 9 ай бұрын
Буду стараться держать марку :). Спасибо за тёплые слова
@glukis7970
@glukis7970 9 ай бұрын
Спасибо за видео. Исходники где то есть посмотреть?
@Motskin_AI
@Motskin_AI 9 ай бұрын
Исходные коды я никуда не выкладывал, но в видео (ссылка с меткой времени), kzbin.info/www/bejne/paKtoZmQaJV4qbc я показал откуда я взял базу и даже показал откуда этот человек их взял. Однако в каждом последующем видео, я могу в код что-то добавлять-изменять. Но иногда буду делать рефакторинг, где всё видео будет посвящено исправлением. Как раз следующее видео будет именно таким. Но в любом случае я не планирую выкладывать код с возможностью Copy/Paste.
@blackbigdeath
@blackbigdeath 5 ай бұрын
Спасибо хорошо очень, хорошо что упоминаете авторов
@Motskin_AI
@Motskin_AI 5 ай бұрын
в этой серии видео про авторов рассказываю, но всё равно есть мысли убрать этот блок. Или рассказывать только про соотечественников
@blackbigdeath
@blackbigdeath 5 ай бұрын
@@Motskin_AI просто в некоторых видосах говорят "мы взяли какую-то сетку у китайцев, обучили и выиграли Кэгл", это не уважение к авторам
@blackbigdeath
@blackbigdeath 5 ай бұрын
@@Motskin_AI можно оставить про соотечественников, это будет хорошо
@zavodkeros
@zavodkeros 6 ай бұрын
Разве нельзя было уменьшить количество воркеров без уменьшения батча? И какую loss-f вы используете, подскажите, пожалуйста.
@Motskin_AI
@Motskin_AI 6 ай бұрын
Так количество воркеров и размер батча не связаны, если вы имеете ввиду тот момент, когда я был вынужден снижать размер батча. Ведь только так я мог управлять потребляемой памятью, чтобы поместиться в видеокарту. В качестве функции потери, для всех исследуемых моделей использую классическую CrossEntropyLoss. В конце видео под номером 11 продемонстрирован весь код, который сейчас используется. А в двух последующих видео показаны устранение обнаруженных багов.
@zavodkeros
@zavodkeros 6 ай бұрын
@@Motskin_AI ок, спасибо за ответ
@blackbigdeath
@blackbigdeath 5 ай бұрын
Как мы убедились просто накидывание слоёв ничего не даёт, сразу было понятно что сети не хватает разрешения изображения, как только оно увеличилось, сразу выросла точность. На небольших разрешениях можно было поиграться числом фильтров. Автор протиестил сети как они есть без изменений так что норм
@Motskin_AI
@Motskin_AI 5 ай бұрын
Там если начать менять, то можно зависнуть. Поэтому решил всё оставить по умолчанию. И то вначале не играл коэффициентами обучения, а затем уже начал подбирать их. Но я планирую обучить все модели при похожих условиях. Но всё равно не внося изменения в базовую архитектуру модели. Об этом сделаю отдельное видео.
Муж внезапно вернулся домой @Oscar_elteacher
00:43
История одного вокалиста
Рет қаралды 6 МЛН
Из какого города смотришь? 😃
00:34
МЯТНАЯ ФАНТА
Рет қаралды 2,6 МЛН
Самое простое объяснение нейросети
16:30
Программный Кот
Рет қаралды 129 М.