Спасибо за лекцию! Многие вещи очень непонятно объясняются. Практически каждый новый 2-ой термин приходится дополнительно гуглить. Понятно, что Вам эти вещи уже кажутся очевидными и понятными, но нам (смотрящим) совсем нет.
@nikolaikrot85164 жыл бұрын
Спасибо за лекцию. Но хочу предложить лектору готовить текст лекции заранее, особенно по сложным местам, и читать его. Так есть возможность заранее сформулировать сложные места и поработать над их понятностью. Да и есть возможность сделать лекцию короче.
@AskoLd1ee4 жыл бұрын
Почему так непонятно объясняется градиентный бустинг, нельзя разве на пальцах последовательно от функции до функции показать, там же цепочка существует
@dimitriysokolov12572 жыл бұрын
Очень хороший и хорошо дополняющий контент, но могу слушать только на скорости - 1,75x ))
@BetForBeer4 жыл бұрын
Записывать дубли мы не бросим!
@taygind4 жыл бұрын
Боюсь смотреть лекцию из-за многочисленных отзывов о том, что она непонятная. Я и прошлый семинар этого лектора не особо поняла.
@taygind4 жыл бұрын
48:30 - косяк монтажа
@DeepLearningSchool4 жыл бұрын
@@taygind Спасибо за замечание, исправлено
@АлексейСидоров-б3з2 жыл бұрын
Спасибо большое, кратко, емко, понятно!
@ИгорьКрысов-р8ь3 жыл бұрын
Спасибо
@rosasha28034 жыл бұрын
23.50 Говорят о том, что big leaf size это overfit.. Как так то....наоборот это же недообучение ,--лист огромный, туда вся выборка и попадет...илия че то не так понял??
@vadimosipov21474 жыл бұрын
Я тоже не понял этот момент. Если приходит много примеров в лист, то 2 варианта, масса - однородна, и мы хорошо предсказываем; масса - неоднородна, тогда, возможно, у нас страдает качество, но мы не зацикливаемся на одном примере. Короче, шляпа какая то
@jenya_pu4 жыл бұрын
Большое спасибо за лекцию! Не могли бы Вы, пожалуйста, выложить слайды! Очень интересно!
@vadimosipov21474 жыл бұрын
Entropy принимает max там, где вероятность 50 на 50 для классов. Тогда получается, что для 2ух классов это: (-1) * (0.5 * log_2(0.5) + 0.5 * log_2(0.5)) = 1. 11:38. Почему на графике у Entropy максимум в точке 0.5?
@ИванИванов-з5к1щ4 жыл бұрын
Там скорей всего, как и везде, натуральный логарифм, тогда значение ~0.69. А картинка - фейковый график, наверное, просто для красоты рисовалась.
@ИванИванов-з5к1щ4 жыл бұрын
Лектор упоминает о ссылке на ноутбук на слайде. А сами слайды не выложены. Выложите, пожалуйста.
@vadimosipov21474 жыл бұрын
p_c*q_c - среднее значение ошибок при предсказании класса c. Как вы интерпретировали, что это среднее значение ошибок, для меня остается загадкой.
@rosasha28034 жыл бұрын
Мне бустинг чем ТО напомнил SARIMAX.... НЕ ОТ ТУДА ЛИ НОГИ РАСТУТ?
@slavaukraini47694 жыл бұрын
Я бы словил меньше фейспалмов, если бы Дмитрий Садыков всю лекцию просто молчал и щелкал слайды. Каждые три слова - фейспалм.
@ИванИванов-з5к1щ4 жыл бұрын
ГДЕ СЛАЙДЫ?!!!
@rosasha28034 жыл бұрын
И про обьяснения.....Ребята, вы же все из МФТИ..Феймана вспомните.....идеальное обьяснение непоняток по квантовой механике)) p.s. А вообще курс класс!! я попал в точку после 6 месячной специализации на курсере так же от МФТИ....Без нее на продвинутом потоке было бы нечего делать..или как попугай...без понимания бы делал((
@vadimosipov21474 жыл бұрын
а что за специализация? Дайте, пжл, ссылку
@АнатолийЧунижеков2 жыл бұрын
Полезность лекции = 0. "Лектор" сам не разбирается в теме. Несет заученный текст, причем неправильный.