Лекция. Transfer Learning

  Рет қаралды 16,551

Deep Learning School

Deep Learning School

Күн бұрын

Занятие ведёт Татьяна Гайнцева.
Ссылка на презентацию: docs.google.com/presentation/...
---
0:00 - Что такое Transfer Learning и зачем он нужен
3:11 - Fine-tuning
15:04 - Виды Transfer Learning задач
24:49 - Идеи решения задач Transfer Learning
34:43 - Transfer Learning is a new Black
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_learning_school_news
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschool_mipt
Github-репозиторий: github.com/DLSchool/dlschool
Поддержать канал можно на Boosty: boosty.to/deeplearningschool
ФПМИ МФТИ
Официальный сайт: mipt.ru/education/departments...
Магистратура: mipt.ru/education/departments...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/education/departments...

Пікірлер: 31
@zlataafanaseva8595
@zlataafanaseva8595 3 жыл бұрын
девушка -педагогических гений!
@ivanvrn51
@ivanvrn51 3 жыл бұрын
Это лучшее что я просмотрел сотни роликов на эту тему!!! Огромное спасибо и тысяча лайков!!!
@47clere
@47clere 2 жыл бұрын
Отличный лектор, все её лекции очень наглядны и понятны)
@user-bf1bf3oh8l
@user-bf1bf3oh8l Жыл бұрын
Очень круто!
@user-qt1mg8gr1q
@user-qt1mg8gr1q 2 жыл бұрын
умница, лекции - чудо
@user-qi2du9mn4f
@user-qi2du9mn4f 7 ай бұрын
Татьяна великолепна 😍
@andreus9118
@andreus9118 3 жыл бұрын
спасибо!
@sakost
@sakost 3 жыл бұрын
39:28 регистраторы)
@user-tj1nf2qw6h
@user-tj1nf2qw6h 2 жыл бұрын
Влюбился, пока смотрел)
@user-bs3sv7eh6b
@user-bs3sv7eh6b 2 жыл бұрын
Считаю что алгоритмы беспилотных автомобилей должны проходить дообучение на данных с дорог России так как вероятность возникновения нестандартных ситуаций высок
@user-sk5sp2dp7b
@user-sk5sp2dp7b 7 ай бұрын
Огромное спасибо за лекцию, к сожалению не смог найти ссылки на статьи, о которых вы рассказываете. В прикреплённой вами в описание презентации меньше слайдов и нет ссылок. не могли бы вы, пожалуйста, прикрепить ссылки на статьи.
@vadimosipov2147
@vadimosipov2147 3 жыл бұрын
33:18. "У нас нету доступа к весам и архитектуре". Я так понимаю, что у нас есть только выходы - предсказанные классы или вероятности. Тогда я не понимаю, как мы можем использовать предпоследний слой сети? Можно про этот момент подробнее?
@tatianagaintseva8701
@tatianagaintseva8701 3 жыл бұрын
Мы можем использовать его выходы иногда. Дело в том, что у многих сетей (например, для распознавания лиц) после обучения на классификацию отрезается последний слой и выходом считается предпоследний слой. И именно его мы можем получать в таком сеттинге
@vadimosipov2147
@vadimosipov2147 3 жыл бұрын
@@tatianagaintseva8701 , можно вам написать напрямую в телеге? Это ускорит понимание.
@vadimosipov2147
@vadimosipov2147 3 жыл бұрын
@@tatianagaintseva8701 , я не понимаю вас. Вы говорите, что у нас нету доступа к весам и архитектуре модели, т.е. она обученная и то что мы можем получить - это классы либо веса. Как в этом случае мы можем проводить изменения над моделью, отрезая последний слой? В противном случае мы получим доступ к предпоследнему слою, а от него к пред-предпоследнему и так мы получим доступ ко всем весам. Что противоречит тому, что вы утверждаете в лекции.
@tatianagaintseva8701
@tatianagaintseva8701 3 жыл бұрын
@@vadimosipov2147 попробую объяснить еще раз. Возьмем сеть, скажем, для распознавания лиц. Когда ее обучают, ее обучают как задачу классификации. Последний слой выдает вероятности, который идут в CE -- все как положено. Когда же ее засовывают в продакшен, последний слой выкидывается. То есть, есть сеть, к весам которой у нас доступа нет. Но мы можем подавать в нее картинки (лица) и получать выход. Выход -- это выход из последнего слоя сети (после откидывая последнего слоя после обучения этот выход станет выходом предпоследнего слоя сети). Вот на этих выходах мы и будем обучать новую сеть
@vadimosipov2147
@vadimosipov2147 3 жыл бұрын
@@tatianagaintseva8701 , теперь стало понятно! Это очень необычное положение вещей. Я знаю, что есть платные модели, где доступны только выходы либо модель своя, тогда работа с ней по принципу "делай что хочу", ну или другой команды, но можно договориться.
@sacramentofwilderness6656
@sacramentofwilderness6656 3 жыл бұрын
Возник вопрос, если набор данных маленький, а мы берем за основу большую сеть, то если не заморозить веса - велика вероятность переобучения. Но взять сильно много весов, то в недавних работах было показано, что наблюдается явление double descent, что качество модели начинает снова расти на тестовой выборке. В данном случае оно здесь не может наблюдаться?
@tatianagaintseva8701
@tatianagaintseva8701 3 жыл бұрын
Дайте ссылку на эти работы, пожалуйста. Вообще это может зависеть от разных параметров. Если задачи далеки друг от друга, то имеет смысл размораживать большее количество весов, потому что веса, обученные на одной задаче, могут выделять фичи, которые не очень полезны на второй. И нужно дообучать почти все.
@alexanderskusnov5119
@alexanderskusnov5119 Жыл бұрын
Верх и низ понятия условные, есть представления, где информация идёт снизу вверх.
@alexanderskusnov5119
@alexanderskusnov5119 Жыл бұрын
Что означает ваш заголовок "трансферное обучение - это новый черный"? (у автора - драйвер (то бишь двигатель) успеха)
@vadimosipov2147
@vadimosipov2147 3 жыл бұрын
17:20. Пример с NLP очень понятный. А как быть, если случай тяжелее? Если у нас задача, скажем, скоринга, и есть 2 домена: А - 50 признаков, Б - 70 признаков; общих признаков 15, остальные - уникальные. Если я урезаю у новой модели Б часть уникальных признаков, то домен Б - подмножество домена А. Если я оставляю все 70, то пространства пересекаются, но все же разные. И тогда я не понимаю, считать эти пространства разными или нет. И что потом делать с этим, когда я выясню. Я понимаю, что это важно для заморозки слоев, но мы все время тестим, эксперементируем, то что дальше? На что опираться при определении, являются пространства признаков разные или нет? И как эту информацию применять?
@tatianagaintseva8701
@tatianagaintseva8701 3 жыл бұрын
В случае задачи скоринга, где в принципе разное количество (то есть разный Шейп) признаков, просто дообучением сети вам не поможет. Для дообучения нужно, чтобы размерности входящих данных совпадали. Ваша задача скоринга - задача классического мл
@user-mq7xq1hi2q
@user-mq7xq1hi2q 2 жыл бұрын
21:10 Deep Learning вроде как занятие для людей в здравом уме и доброй памяти, поэтому задача классификации по половому признаку всегда будет задачей бинарной классификации, споров по этому вопросу возникать не должно)
@47clere
@47clere 2 жыл бұрын
Время свободы и терпимости требует следить за языком и не терпит свободных высказываний.
@paulissimus
@paulissimus Жыл бұрын
Люди могут быть в здравом уме и доброй памяти в одной сфере, но совершенно поехавшими в другой
@user-uo5by8gw7f
@user-uo5by8gw7f Жыл бұрын
@@47clere Время - это абстракция. Оно ничего не требует. Требуют люди, в соответствии со своими представлениями о мире.
@user-qi2du9mn4f
@user-qi2du9mn4f 7 ай бұрын
не верное изначально суждение, имхо) математика - тоже вроде занятие для людей в здравом уме и т.п. А теперь посмотрите на Григория Перельмана, например😅 а он - гений в своей области
@user-nw2cr4cq9p
@user-nw2cr4cq9p 2 жыл бұрын
А полов и так же всего 2, кек =)
Семинар. Transfer Learning в компьютерном зрении
1:01:47
Лекция. Архитектуры CNN
49:57
Deep Learning School
Рет қаралды 25 М.
Climbing to 18M Subscribers 🎉
00:32
Matt Larose
Рет қаралды 36 МЛН
Получилось у Вики?😂 #хабибка
00:14
ХАБИБ
Рет қаралды 6 МЛН
OMG🤪 #tiktok #shorts #potapova_blog
00:50
Potapova_blog
Рет қаралды 17 МЛН
Лекция. Сверточные нейронные сети
50:11
Deep Learning School
Рет қаралды 51 М.
Лекция. Решающие деревья
31:13
Deep Learning School
Рет қаралды 29 М.
Лекция. Регуляризация в Deep Learning
33:51
Deep Learning School
Рет қаралды 17 М.
ЛАНЬКОВ: поразительные изменения идеологии КНДР в 2024
1:00:38
Когнитивный надзор
Рет қаралды 1 МЛН
Семантическая сегментация. Введение
19:12
Deep Learning School
Рет қаралды 18 М.
Лекция. Генеративные модели, автоэнкодеры
38:59
Лекция. Градиентная оптимизация в Deep Learning
36:09