5:50 очень похоже на backpropagation с loss функцией, чтобы в итоге уменьшить loss и выдавать лучше prediction. Похожий принцип.
@averkij4 жыл бұрын
Спасибо!
@8eck3 жыл бұрын
46:59 - то есть с помощью множества линейно решенных проблем, мы таким образом выводим границы и можем выделить определенные данные, сложив результаты всех линейно решенных проблем.
@8eck3 жыл бұрын
38:36 - то есть это случай low bias + high variance?
@mlpython10893 жыл бұрын
3:30 если делать оценку OOB на переобученных деревьях, то качество должно быть хуже чем у модели среднего.
@Splish_Splash2 жыл бұрын
Лосс на трейне будет больше, но качество предсказания ансамбля в целом будет лучше, так как OOB позволяет не делить выборку на train и validation, значит трейновая выборка будет больше
@mlpython10892 жыл бұрын
@@Splish_Splash По размеру выборки понятно. Но в ансамбле - деревья, глубокие, с низким смещением (т.е. перобученные) а значит на невиданных данных (ООВ) должны давать бредовый результат. В моём самопальном случайном лесе так и происходит. Видимо делаю что то не так. Возможно деревья не нужно переобучать в композиции.
@Splish_Splash2 жыл бұрын
@@mlpython1089 а как вы тогда без OOB считаете метрику? учитесь на трейне и считаете метрику на трейне? ну тогда и метрика будет лучше конечно, ибо некоторые деревья уже видели эти данные. А если делить данные на train и validate, то метрика не сильно должна отличаться от OOB
@ptreeful3 жыл бұрын
Я не очень поняла, по какой функции мы дифференцируем L. Понятно, что в точке xi, которая есть значение выборки, но что за f(xi)? это значение суммы всех предыдущих значений функций в этой точке?
@ПавелШтыков-х9т3 жыл бұрын
Мы дифференцируем L по f, а потом в частную производную dL/df (которая зависит от x_i) подставляем конкретное x_i. Получаем значение градиента функции потерь на данной точке выборки
@mlpython10893 жыл бұрын
Как бы GBM на питоне закодировать, с нуля? Видел кто пример?
@АлександрВальвачев-я6ъ5 ай бұрын
нэа
@ghettoar25293 жыл бұрын
А что значит обозначение E полужирная?
@PrO112133 жыл бұрын
Наверное, вы про математическое ожидание говорите...
@ghettoar25293 жыл бұрын
@@PrO11213 уже понял, спасибо) до мат статистики ещё не дошёл
@hopelesssuprem1867 Жыл бұрын
Полная шляпа для нубов. Лучше бы рассказал как строится мулькласс бустинг на основе softmax и гамма коэффициентов для каждого листа в дереве