Лекция. Градиентный бустинг

  Рет қаралды 27,100

Deep Learning School

Deep Learning School

Күн бұрын

Пікірлер: 22
@Mikhail-kh1dz
@Mikhail-kh1dz 3 жыл бұрын
Отличный лектор, спасибо!
@fludentri
@fludentri 2 жыл бұрын
Потрясающе! Спасибо за видео, Юрий, у Вас талант учить людей.
@Berberherugob6262
@Berberherugob6262 3 жыл бұрын
Отличная лекция, простыми словами - не самую простую логику!
@juniorly3942
@juniorly3942 Жыл бұрын
Очень грамотная речь, слушать одно удовольствие!
@A_KDM_A
@A_KDM_A Жыл бұрын
Спасибо за такой объёмный курс в открытом доступе.
@АлексейКрутилин-ь1о
@АлексейКрутилин-ь1о 3 жыл бұрын
Супер-лектор
@ArtyomBoyko
@ArtyomBoyko Жыл бұрын
Не торопись!)))
@ptreeful
@ptreeful 3 жыл бұрын
? Где ссыль про bias variance?
@ivankosolapov430
@ivankosolapov430 Жыл бұрын
Разве квадратичная функция потерь, это не (y-a)^2, где "y"- известное значение, а "a" - предсказанное моделью? Почему тогда в формулах (a-y)^2? Или это просто случайная формула? В случае с MSE это не влияет на ответ - всё равно квадрат, а вот для производной важно - будет отличаться знак.
@КонстантинАтарик
@КонстантинАтарик Жыл бұрын
нет, производная одна и та же, d(y-a)^2/da = d(a-y)^2/da = 2(a - y)
@pasdenom0
@pasdenom0 2 жыл бұрын
А можно ссылки на упомянутые статьи, пожалуйста?
@tommy_2906
@tommy_2906 3 жыл бұрын
Спасибо за лекцию. Есть вопрос: о чем идет речь на графике сравнения ошибок от итерации бустинга? Как "бустинг подгоняется под ответы тестовой выборки"? Вроде бы на то она и тестовая, что мы не знаем ее таргета. Или вы тут называете "тестовой" "валидационную" выборку, которая составлена из исходных данных и не показывалась для обучения? Заранее спасибо))
@yuryyarovikov3323
@yuryyarovikov3323 3 жыл бұрын
Не нашёл точную цитату, можете таймкод поставить?
@annicioua
@annicioua 3 жыл бұрын
@@yuryyarovikov3323 Полагаю, речь о 22й минуте и графиках ошибки от времени - ошибки на обучающей и тестовой выборках.
@annicioua
@annicioua 3 жыл бұрын
Полагаю, речь о валидационной выборке, иначе никак)
@spaceshine909
@spaceshine909 3 жыл бұрын
В прошлых лекциях говорили, что если не называют отдельной выборки для валидации, то под тестовой и понимают валидационную
@АлександрЛисенков-ч7т
@АлександрЛисенков-ч7т Жыл бұрын
Таргет тестовой выборки мы конечно знаем, иначе какая она тестовая ?) т. е. мы же в принципе не можем тестировать результаты, не зная истинного таргета. Таргет неизвестен тогда, когда мы применяем готовую (заранее обученную и протестированную) модель на новых данных, которые не входили ни в какую выборку.
@zealot4325
@zealot4325 Ай бұрын
Спасибо за видео! Юрий, пожалуйста, постарайтесь во время лекции больше объяснять простыми словами суть написанных на экране формул, а не озвучивать их. Так лекция будет информативнее
@vladislavleonov2682
@vladislavleonov2682 3 жыл бұрын
24:40 неудачный дубль остался
@DeepLearningSchool
@DeepLearningSchool 3 жыл бұрын
Остался. Видимо, теперь это уже фича этой лекции. Но спасибо:)
@dmitrytrofimov3069
@dmitrytrofimov3069 3 жыл бұрын
@@DeepLearningSchool это уже впринципе ваша фича, на 2 лекции тоже что-то такое было))
@КонстантинАтарик
@КонстантинАтарик Жыл бұрын
ребята сделали содержание лекции линейно зависимым, чтобы мы успешно переобучились
Семинар. Model Selection
1:11:21
Deep Learning School
Рет қаралды 31 М.
Лекция. Композиции алгоритмов
22:14
Deep Learning School
Рет қаралды 18 М.
How Much Tape To Stop A Lamborghini?
00:15
MrBeast
Рет қаралды 240 МЛН
Миллионер | 3 - серия
36:09
Million Show
Рет қаралды 2,1 МЛН
Don't underestimate anyone
00:47
奇軒Tricking
Рет қаралды 22 МЛН
Лекция. Градиентная оптимизация
27:52
Deep Learning School
Рет қаралды 18 М.
Лекция. Решающие деревья
31:13
Deep Learning School
Рет қаралды 32 М.
CatBoost - градиентный бустинг от Яндекса
1:20:53
Computer Science Center
Рет қаралды 31 М.
Метрики машинного обучения
10:05
Deep Learning School
Рет қаралды 23 М.
Основы машинного обучения, лекция 14 - градиентный бустинг
1:15:12
ФКН ВШЭ — дистанционные занятия
Рет қаралды 2,8 М.
How Much Tape To Stop A Lamborghini?
00:15
MrBeast
Рет қаралды 240 МЛН