Машинное обучение 7. Gradient boosting

  Рет қаралды 16,884

Лекторий ФПМИ

Лекторий ФПМИ

Күн бұрын

Пікірлер: 23
@TheFemenistka
@TheFemenistka 4 жыл бұрын
Очень крутая, понятнвя лекция! Спасибо!
@bolshoy_brat9093
@bolshoy_brat9093 3 жыл бұрын
Крутой препод
@МихаилКим-р3ы
@МихаилКим-р3ы 4 жыл бұрын
Отличная лекция, спасибо!
@МихайловАртем-н8у
@МихайловАртем-н8у 3 жыл бұрын
Спасибо! Очень помогли разобаться
@denistjupin9208
@denistjupin9208 3 жыл бұрын
Очень крутой
@8eck
@8eck 3 жыл бұрын
5:50 очень похоже на backpropagation с loss функцией, чтобы в итоге уменьшить loss и выдавать лучше prediction. Похожий принцип.
@averkij
@averkij 4 жыл бұрын
Спасибо!
@8eck
@8eck 3 жыл бұрын
46:59 - то есть с помощью множества линейно решенных проблем, мы таким образом выводим границы и можем выделить определенные данные, сложив результаты всех линейно решенных проблем.
@8eck
@8eck 3 жыл бұрын
38:36 - то есть это случай low bias + high variance?
@mlpython1089
@mlpython1089 3 жыл бұрын
3:30 если делать оценку OOB на переобученных деревьях, то качество должно быть хуже чем у модели среднего.
@Splish_Splash
@Splish_Splash 2 жыл бұрын
Лосс на трейне будет больше, но качество предсказания ансамбля в целом будет лучше, так как OOB позволяет не делить выборку на train и validation, значит трейновая выборка будет больше
@mlpython1089
@mlpython1089 2 жыл бұрын
@@Splish_Splash По размеру выборки понятно. Но в ансамбле - деревья, глубокие, с низким смещением (т.е. перобученные) а значит на невиданных данных (ООВ) должны давать бредовый результат. В моём самопальном случайном лесе так и происходит. Видимо делаю что то не так. Возможно деревья не нужно переобучать в композиции.
@Splish_Splash
@Splish_Splash 2 жыл бұрын
@@mlpython1089 а как вы тогда без OOB считаете метрику? учитесь на трейне и считаете метрику на трейне? ну тогда и метрика будет лучше конечно, ибо некоторые деревья уже видели эти данные. А если делить данные на train и validate, то метрика не сильно должна отличаться от OOB
@ptreeful
@ptreeful 3 жыл бұрын
Я не очень поняла, по какой функции мы дифференцируем L. Понятно, что в точке xi, которая есть значение выборки, но что за f(xi)? это значение суммы всех предыдущих значений функций в этой точке?
@ПавелШтыков-х9т
@ПавелШтыков-х9т 3 жыл бұрын
Мы дифференцируем L по f, а потом в частную производную dL/df (которая зависит от x_i) подставляем конкретное x_i. Получаем значение градиента функции потерь на данной точке выборки
@mlpython1089
@mlpython1089 3 жыл бұрын
Как бы GBM на питоне закодировать, с нуля? Видел кто пример?
@АлександрВальвачев-я6ъ
@АлександрВальвачев-я6ъ 5 ай бұрын
нэа
@ghettoar2529
@ghettoar2529 3 жыл бұрын
А что значит обозначение E полужирная?
@PrO11213
@PrO11213 3 жыл бұрын
Наверное, вы про математическое ожидание говорите...
@ghettoar2529
@ghettoar2529 3 жыл бұрын
@@PrO11213 уже понял, спасибо) до мат статистики ещё не дошёл
@hopelesssuprem1867
@hopelesssuprem1867 Жыл бұрын
Полная шляпа для нубов. Лучше бы рассказал как строится мулькласс бустинг на основе softmax и гамма коэффициентов для каждого листа в дереве
@vladislavstankov1796
@vladislavstankov1796 2 жыл бұрын
Лектор настолько хорош, что стал слаб к мужчинам
Машинное обучение 8. Intro to Deep Learning
1:14:37
Лекторий ФПМИ
Рет қаралды 9 М.
UFC 310 : Рахмонов VS Мачадо Гэрри
05:00
Setanta Sports UFC
Рет қаралды 1,2 МЛН
coco在求救? #小丑 #天使 #shorts
00:29
好人小丑
Рет қаралды 120 МЛН
BAYGUYSTAN | 1 СЕРИЯ | bayGUYS
36:55
bayGUYS
Рет қаралды 1,9 МЛН
Машинное обучение. Семинар 7. Shap values
1:11:30
Лекторий ФПМИ
Рет қаралды 6 М.
Машинное обучение 10. Recurrent Neural Networks and Language Models
1:00:41
[KOREA AI SUMMIT 2024] Keynote 2 : Prof. Philp Torr (U of Oxford)
30:54
인공지능 혁신 허브 (AI Innovation Hub) 채널
Рет қаралды 23
Машинное обучение 9. Optimization and regularization in Deep Learning
1:20:06
Машинное обучение 1. Introduction. Naive Bayes, kNN.
1:22:39
Лекторий ФПМИ
Рет қаралды 60 М.
Стивен Уильям Хокинг. Теория всего. Происхождение и судьба Вселенной.
3:28:26
Читает Олег Лобанов | ≡ Аудиокниги
Рет қаралды 1,7 МЛН
Основы машинного обучения, лекция 15 - градиентный бустинг
1:01:44
ФКН ВШЭ — дистанционные занятия
Рет қаралды 1,4 М.
Лекция. Градиентный бустинг
31:02
Deep Learning School
Рет қаралды 27 М.