#44. Градиентный бустинг и стохастический градиентный бустинг | Машинное обучение

  Рет қаралды 7,987

selfedu

selfedu

Күн бұрын

Пікірлер: 15
@alexanderdushenin7035
@alexanderdushenin7035 2 жыл бұрын
Сергей, здравствуйте Интересно было бы узнать отличия алгоритмов LightGBM, XGBoost и CatBoost. Надеюсь, когда-нибудь увижу подобное видео на Вашем канале)
@trollface4783
@trollface4783 Жыл бұрын
Сергей, спасибо большое за курс! Хотел уточнить, на 5:08 под квадратом должна стоять разность или сумма ?
@selfedu_rus
@selfedu_rus Жыл бұрын
Спасибо! Там все верно, сумма.
@ИльяКондаков-п7и
@ИльяКондаков-п7и Жыл бұрын
Добрый вечер! Подскажите, пожалуйста, не совсем понятно как алгоритм b_t "настраивается", относительно ошибок прошлых алгоритмов. Мы передаём в него другую функцию потерь (разница предсказанных значений прошлых алгоритмов минус y_true)?
@selfedu_rus
@selfedu_rus Жыл бұрын
Вес наблюдений, на которых возникают значимые ошибки - больше, и, наоборот, те образы, что хорошо обрабатываются имеют меньшие веса.
@ИльяКондаков-п7и
@ИльяКондаков-п7и Жыл бұрын
@@selfedu_rus спасибо! Но вы сейчас не описываете часть алгоритма Adaboost? Касательно градиентного бустинга: в схожем видео от мфти говорили, что просто меняется таргет (целевая переменная) на значение антиградиента и уже на этой целевой переменной обучается новый алгоритм. Запутался :с
@selfedu_rus
@selfedu_rus Жыл бұрын
@@ИльяКондаков-п7и Почему же? Там есть нахождение весового коэффициента (4-й пункт). Я о нем. И он влияет на обучение последующих алгоритмов.
@ИльяКондаков-п7и
@ИльяКондаков-п7и Жыл бұрын
@@selfedu_rus Насколько я понимаю, весовой коэффициент на 4-м пункте - это константа (вектор из одних и тех же значений размера входной выборки), тогда он влияет "в целом" на функцию ошибки, а не по каждому наблюдению. Для учёта каждого наблюдения, насколько понял я, целевая переменная нового алгоритма меняется на антиградиент функции ошибок от прошлой модели (в случае MSE - просто на разницу предикта прошлой модели и истинных значений). Правильны ли мои мысли?
@ВладимирКалинин-и8т
@ВладимирКалинин-и8т 5 ай бұрын
1. Если MSE основной оптимизируемый функционал, то почему на практике в задачах классификации всегда используется logloss? Или же мы оптимизируем mse, но просто в логи выводим логлосс? 2. Почему в градиентном бустинге крайне важно использование слабых моделей в составе ансамбля ?
@selfedu_rus
@selfedu_rus 5 ай бұрын
1. здесь MSE для нахождения близости модели к антиградиенту, а не поиск параметров модели (обучение самих моделей можно с любой функцией потерь производить) 2. сильные модели и так все хорошо учитывают, если делать их комбинацию, то ничего особо нового не произойдет, и кроме того, они не переобучены, т.е. там усреднять особо нечего
@ВладимирКалинин-и8т
@ВладимирКалинин-и8т 5 ай бұрын
@@selfedu_rusспасибо. Но в бустинге базовым алгоритмом выступает дерево, у которого вообще нет функции потерь? Как же тогда имплементируется логлосс?
@artemtitov8657
@artemtitov8657 2 жыл бұрын
У меня вопрос. А когда мы ищем лучший алгоритм bt - это что имеется в виду? То есть мы перебираем гиперпараметры у дерева? или что? или это имеется в виду какой вид модели лучше подойдет (линейная или деревья) у деревьев всегда фиксированные гиперпараметры по типу глубины?
@selfedu_rus
@selfedu_rus 2 жыл бұрын
это значит, что мы обучаем дерево (любым алгоритмом и с любыми гиперпараметрами) по текущей обучающей выборке
@deniswolf1846
@deniswolf1846 2 жыл бұрын
Добрый день, написал Вам в почту)
@YbisZX
@YbisZX 11 ай бұрын
@selfedu_rus Кстати, в предыдущем видео про AdaBoost получается, что это прямое применение градиентного бустинга к регрессии. Ведь, если функция потерь - MSE, то антиградиент - это остаток до целевых значений. По сути обучаем модель, дающую остаток. Только вопрос тогда: Как тогда при классификации градиент по exp(-M) превращается в весовые коэффициенты для выборки чтобы получился классификатор AdaBoost?
Мясо вегана? 🧐 @Whatthefshow
01:01
История одного вокалиста
Рет қаралды 7 МЛН
The Best Band 😅 #toshleh #viralshort
00:11
Toshleh
Рет қаралды 22 МЛН
REAL or FAKE? #beatbox #tiktok
01:03
BeatboxJCOP
Рет қаралды 18 МЛН
[DeepLearning | видео 1] Что же такое нейронная сеть?
19:00
3Blue1Brown translated by Sciberia
Рет қаралды 815 М.
Урок 4 Python(basic)  Просте Пояснення if else, умовні Оператори:
5:04
Спільнота Тестувальників LT3
Рет қаралды 527