Спасибо за видео! Всё же, наверное, "генератор" случайных чисел, а не "датчик". Хотя мне "датчик" нравится :)
@artemivanov50132 жыл бұрын
Супер урок!!!Спасибо!
@dicloniusN35Ай бұрын
это чтоб комп разорвало) получается что если временной ряд то это не прокатит?
@tastywhiskyy2 жыл бұрын
Про градиентный бустинг будет? А так все топ
@shapovalentine Жыл бұрын
Очень крутой урок. Единственное не понял проблему (на 9:22): " Алгоритмы aj(x) в своей совокупности должны охватывать как можно больше возможных исходов для каждого вектора x и формировать как можно более независимые ответы >>> Линейный алгоритм не очень пригоден при композиции (усреднении) ответов"
@selfedu_rus Жыл бұрын
Спасибо! Суперпозиция линейных алгоритмов - это все тот же линейный алгоритм.
@АндрейИльинский-к4с Жыл бұрын
Спасибо за видео! Всё же если остановиться на линейных моделях, в теории метод работает? Очевидно, что среднее нескольких независимых моделей лучше чем каждая в отдельности. Но лучше ли это одной модели которая училась на всей выборке? В простейшем случае предсказания константы в шуме, "лучшая" оценка это среднее значение выборки с дисперсией в N раз меньшей, чем у шума, где N - размер выборки. В этом случае можно что-то улучшить взяв несколько подвыборок?
@YbisZX Жыл бұрын
@selfedu 9:04 А как быть с M-классификацией? Выбирать класс по большинству? Или тогда уже лучше по большинству из суммы в конечных листах деревьев?
@selfedu_rus Жыл бұрын
Здесь можно воспользоваться одной из стратегий для реализации многоклассовой классификации: all-vs-all, one-vs-all. Подробнее здесь proproprogs.ru/ml/ml-mnogoklassovaya-klassifikaciya-metody-one-vs-all-i-all-vs-all
@alexeyermakov7391 Жыл бұрын
Сергей, спасибо! У Вас классные уроки👋 Для меня правда остался непонятным один момент про недостатки случайного леса - невозможность использования для экстраполяции. Однако мы же по факту с помощью predict можем взять и предсказать интересующий нас целевой признак вне интервала, это получается не экстраполяция?
@alexeyermakov7391 Жыл бұрын
Переобучился сам уже. Совсем очевидную вещь спросил,, с этим все понятно
@olbasdjirmyhamedov704 Жыл бұрын
@@alexeyermakov7391 тоже не очень понял про это, можете, пожалуйста пояснить? :)
@YbisZX Жыл бұрын
@@olbasdjirmyhamedov704 Деревья делают разбивку по данным выборки. Они не знают, что находится за ее пределами - в лучшем случае до бесконечности растянут крайние значения. Такая же проблема с метрической регрессией - она размещает предсказание _между_ ближайшими соседями.
@buyfngentlman93353 ай бұрын
Боже! Неужели это старый добрый метод статистических испытаний? Всё что касается машинного обучения уже было в параметрическом и непараметрическом анализе. Это ваше машинное обучение - такое "Машинное"🤣
@selfedu_rus3 ай бұрын
все верно, теория всего этого известна очень давно и лишь прикладывается к задачам ML, несколько модифицируется, и что то придумывается