No video

Что такое Алгоритм случайного леса? Random Forest

  Рет қаралды 31,254

Основы анализа данных

Основы анализа данных

Күн бұрын

Алгоритм случайного леса он замечательно прогнозирует, он один из лучших алгоритмов по прогнозной силе, но при этом он совершенно ничего не объясняет. То есть это такой черный ящик, который выдает хорошие прогнозы, но абсолютно не рассказывает о том, как устроена на самом деле зависимость. Соответственно, существует много версий алгоритмов случайного леса, но две пожалуй самых важных - это алгоритм для количественной объясняемой переменной, для количественной y ,и алгоритм для качественной y, которая принимает значение 0 или 1,да или нет. Мы рассмотрим версию алгоритм случайного леса для количественной переменной, то есть которая принимает какой-то диапазон значений.
=========================
Подписаться на канал - / @user-bm5zk9mf3o
Курс программирования на R - • Основы программировани...
Курс основы эконометрики в R - • Основы эконометрики в R

Пікірлер: 19
@user-bk6iv2fi2b
@user-bk6iv2fi2b 9 ай бұрын
Все более менее понятно, только забыли сказать как рассчитывается rss
@evgeniykorniloff9974
@evgeniykorniloff9974 2 жыл бұрын
Это генетический алгоритм. Только надо выбирать треть лучших
@dicloniusN35
@dicloniusN35 2 жыл бұрын
дихотомия для поиска) напомнили слово из универа)
@antonhauff
@antonhauff 6 жыл бұрын
Подскажите пожалуйста, где можно найти информацию для алгоритма для качественной y.
@user-he8yo3mt3p
@user-he8yo3mt3p 6 жыл бұрын
kzbin.info/www/bejne/h4eZmXhjgr5nebM
@user-vk2bm1rx8o
@user-vk2bm1rx8o 3 жыл бұрын
Ошибка наверно в 3 кластере? Д б x
@danielianhaik
@danielianhaik 4 жыл бұрын
у нас 1 1 2 10 20 40 50 ... и что ими обозначили???
@Uni-Coder
@Uni-Coder 5 жыл бұрын
Отбираем n наблюдений из n наблюдений?
@stasessiya
@stasessiya Жыл бұрын
с повторами
@user-pb7pz7nv3m
@user-pb7pz7nv3m 5 жыл бұрын
А что означает x
@user-ix9ib4qh1c
@user-ix9ib4qh1c 5 жыл бұрын
10 и 20 это переменные по у. 0.5 - про х. смотри на столбцы
@user-pb7pz7nv3m
@user-pb7pz7nv3m 5 жыл бұрын
А понял, спасибо
@hopelesssuprem1867
@hopelesssuprem1867 10 ай бұрын
Случайный лес - это частный случай бэггинга, когда n деревьев обучаются параллельно на бутстрапированных выборках, а в кач-ве ф-ции агрегирования используется мода для классификации и среднее для регресси. Всё, нечего тут объяснять, а лектор так сложно объясняет такие простые вещи.
@dronnet
@dronnet 9 ай бұрын
а вот я ещё пока ничего не понял. Ну например, а как выбрать порог разделения? а с какого столбца начать? а как понять что именно этот порог лучший? и т.д.
@hopelesssuprem1867
@hopelesssuprem1867 9 ай бұрын
@@dronnet порог выбирается на минимизации загрязненности в узле, например с помощью взвешенной неопределенности Джини. Лучше почитайте книгу hands-on machine learning и посмотрите statquest. Такие челы, как этот лектор, вас ничему не научат ибо сами ниче не знают.
@dronnet
@dronnet 8 ай бұрын
Спасибо, попробую посмотреть. Пока я понял следующее что ВСЕ алгоритмы надо уметь написать с нуля самому, используя только numpy, только тогда достигается полное понимание что и куда. Пока научился писать и понял лин регрессию, градиентный бустинг, кНН и нейросетку полносвязанную одно и двух слойную. Продолжаю изучение@@hopelesssuprem1867
@nikjack2697
@nikjack2697 4 жыл бұрын
ыаыаы
@Oleg_Litvinov
@Oleg_Litvinov 5 жыл бұрын
первое деление происходит по переменной y. Написано z
@blacktechnology6496
@blacktechnology6496 2 жыл бұрын
По z ведь.
а ты любишь париться?
00:41
KATYA KLON LIFE
Рет қаралды 3,5 МЛН
🩷🩵VS👿
00:38
ISSEI / いっせい
Рет қаралды 25 МЛН
Cute kitty gadgets 💛
00:24
TheSoul Music Family
Рет қаралды 12 МЛН
Расчет апостериорного распределения. Пример 2
10:42
Основы анализа данных
Рет қаралды 4,4 М.
Машинное обучение для чайников
13:25
Основы машинного обучения, лекция 12 - решающие деревья
48:54
ФКН ВШЭ — дистанционные занятия
Рет қаралды 1,5 М.
Расчет апостериорного распределения. Пример 1
10:53
Основы анализа данных
Рет қаралды 9 М.
Суть метода максимального правдоподобия
6:47
Основы анализа данных
Рет қаралды 56 М.