Достойное видео. Очень крутая визуализация и несложные объяснения
@артемГорбаренко-ц4ш3 жыл бұрын
Отдельное спасибо за раздел про регуляризацию, все ни как не мог понять самостоятельно что значат эти графики. Обязательно продолжайте!
@ДаниилКраев-я7ч2 жыл бұрын
Продолжай, очень классно все обьяснил, хочется больше видеть именно эту рубрику! Она очень полезна новичкам
@DN-qj8db3 жыл бұрын
Спасибо за ваш огромный вклад в человечество
@user_nobody_nowhere3 жыл бұрын
Отличное видео! Всё самое важное в такую небольшую продолжительность. вау!
@ISockol2 жыл бұрын
Спасибо огромное, наконец-то осознал домашку ))) 3 дня мучился, разные ролики смотрел🎉
@АлексейСорокин-л2е3 жыл бұрын
Чтобы воспроизвести бОльшую глубину этого урока, нужно пересмотреть этот ролик ещё раз и прочитать этот комментарий.
@Igor-sp7tw3 жыл бұрын
Не ну лайк, подписка, контент полезный и редкий
@osvab000 Жыл бұрын
Круто, очень просто, быстро и доступно. А то смотришь других часами и уже под конец забыл с чего все начиналось!
@АлександрЛебедев-ы1э8б Жыл бұрын
Круто! Спасибо за подробные объяснения вещей, которые зачастую просто называют, не объясняя сути
@pm6778 Жыл бұрын
Спасибо за видео, хорошо рассказываете, правда я ничего не понял, но это только потому что я неуч.
@ИгорьИгорь-к3ы1р11 ай бұрын
Круто, спасибо ! Очень напоминает CV, Yolo, нейросети )
@brotherofken3 жыл бұрын
Привет. Спасибо за видео. Очень поверхностное изложение. Глубоко понять линрег из этого видео будет сложно, хотя ощущение понимания появится. Если цель была сделать покрывающий тему материал, то имхо удалось не до конца. Замечания: 1. Не ответили почему на самом необходимо предобработка с точки зрения оптимизации. 2. Не показан статический смысл регуляризации. 3. На линейную регрессию можно посмотреть как на ортогональную проекцию, что тоже интересно 4. Не показан подход с точки зрения максимизации правдоподобия. 5. Регуляризация в рамках MAP. То есть могли бы противопоставить MAP/MLE. ИМХО материал для новичков должен быть максимально разносторонним. Если проводите собеседования на таком уровне, то крайне высок риск нанять слабых кандидатов. Успехов в дальнейшем развитии канала и будущих выпусках. Рад буду подискутировать.
@start_ds3 жыл бұрын
Привет. Спасибо большое за конструктивную обратную связь. Как появится время - запишу тизер, который будет описывать миссию канала и цель цикла видео. Станет понятнее, думаю. Если кратко, то 1. Материал ориентирован в первую очередь на стажёров-джунов 2. Он показывает какие вообще разделы на собеседовании могут затронуть и в какую сторону стоит копать. То есть, к примеру, разговор про аналитическое решение может начаться аналогично вопросу из ролика, а вот куда он пойдёт дальше - уже воля собеседующего. Цель всего этого - сделать пак материалов, который позволил бы пробежаться по самым базовым моментам вечером перед собесом. Естественно, можно было бы сделать видео на час с более подробным разбором всех основных моментов, но это уже про преследование чуточку других целей. Но вполне возможно, что в скором времени сделаю продвинутую версию этого видео, туда вполне возможно включу вопросы, которые вы описали
@VasArkady2 жыл бұрын
Очень сомнительный подход, настолько сильно углубляться в алгоритм, который в большинстве задач не является оптимальным с точки зрения качества регрессии
@taburet9 Жыл бұрын
Очень круто! Я туповат, но здесь настолько всё по полочкам разложено, что почти всё понял! Спасибо огромное!
@VanyaQA3 жыл бұрын
В поддержку канала!
@dmitryunanyants60073 жыл бұрын
Молодец автор, очень круто!
@ТимурГаджиев-ч8й3 жыл бұрын
7:30 Почему определитель стремиться к нулю если присутствует мультиколлинеарность? Почему если есть функц завис между признаками, то определитель равен 0? 9:40 как получилось построить 2 регрессии с разными параметрами? Разве они(парам) не находятся одним способом- по методу МНК? 12:04 Что такое s(lambda) Это лучшее видео на эту тему из тех, что я видел. Спасибо.
@АндрейСавчук-о7ж3 жыл бұрын
1. Мультиколлинеарность = линейно зависимые столбцы (или строки): определитель такой матрицы равен нулю (см. соотв. раздел линейной алгебры). Не всегда если есть функциональная зависимость между признаками то определитель равен нулю (например определитель Вандермонда), но он равен всегда нулю если есть линейная зависимость. 2. Находятся по МНК и еще другими способами, просто там во второй регрессии признак x1 не масштабирован - имеет слишком малые значения, поэтому параметр w1 очень большой. 3. Это каноническое уравнение кривой 2 - го порядка (для многомерного пространства будет квадратичная поверхность) в данном случае окружности (для многомерного пространства будет эллипсоид соответственно), где s(lambda) = C/lambda -> (lambda/C)**0.5 это максимальный радиус окружности, C = const.
@Digr19792 жыл бұрын
Спасибо тебе, добрый человек.
@ВладиславДмитриевичКорчуганов2 жыл бұрын
Здорово! Спасибо, прикольно было бы еще текст к видео сделать, иногда в виде текста полезно глянуть после видео.
@Stesigerl6 ай бұрын
просто оптимальный, не может быть наиболее или наименее оптимальный. Оптимум - он один!
@evgenyorekhov8867Ай бұрын
В 12:20 точно линии градиента? Мы же по сути решаем систему ||Y - Xw||^2 -> min, ||w||^2
@ИероглифСтёршийся6 ай бұрын
Ребята, не слушайте его, он вас только запутает! 01:24 - это называется не НАБОР а МНОЖЕСТВО. "Множество пар" - ты математику то подучи чтоле... 03:38 - столюбцы ЧЕГО? Ты про что и где столбцы не говорил ещё? - Есть какое-то видео где про столбцы и заборчики рассказываешь - давай ссыль. 03:56 - что-то нигде в математике мне не говорили, что такое '"подход скелер" или "метод скелер", а я технический вуз закончил на отлично -- ты тоже не говорил пока. Ты с какой орбиты ведешь трансляцию, бро? 04:36 - так скелер это такой прибор (ну типа линейки). "инициализтировать скелер" это как? - Из коробки достать чтоле? Как это запоминать мне параметры? Параметры чего? Выборке чего? Train - а поезд тут причём? - Трава дорогая? 04:44 - ой там какой-то код програмный, ну конечно я должен догадаться какой, все же так умеют. Ну вангую что это Py. 06:19 - "Раскрыть значение этого функционала" - воспаде это на футболку печатать. Родной мой, тебя бросает то в математику, то в программирование, то в простые какие-то вещи, то в уродливые химеры из терминов которые твоя голова генерирует - А В ГОЛОВЕ У ТЕБЯ КАША! Я не говорю что материал ты НЕ знаешь, т.к. даже с такой кашей, ты можешь всё внутри себя как-то понимать, но матерь божья тебя огороди от необходимости что-то объяснять. Чтоб объяснить как сварить суп, надо понимать что такое кастрюля - без этого никак.
@YuriSokolov-w8m3 ай бұрын
Спасибо, я из Добрянки, пытаюсь понять что то, мои извилины не воспринимают данный контент. ПОКА!!! Имею ввиду скоро буду понимать, 100 пудова без вариков ваще
@СергейДоржиев-н2о3 жыл бұрын
Лайк однозначно
@ealbitg10435 ай бұрын
Почему при вычислении производной в первом уравнении Xw стало X^T? На 6:26
@dgurinaАй бұрын
Скажите, пожалуйста, что значит Scaler? Это слово вдруг появилось и без всяких пояснений.
@evolutlut2587 Жыл бұрын
Дисклеймер: данное видео о том, как убить свою самооценку за 14 мин😂
@start_ds Жыл бұрын
Почему?)
@Илья-г2н7ф2 ай бұрын
Спасибо!
@artyomkarlashov18453 жыл бұрын
Кажется, что для того чтобы понять о чем тут - необходимо повторить всю школьную алгебру (и скорее всего не только). Много неизвестных понятий . Требуется серьёзная подготовка ....
@AlexanderIgityan Жыл бұрын
Отмечу, что линейную регрессию называют линейной именно из-за линейной комбинации базисных функций - это не связано с самыми базисными функциями (они могут быть линейными или нет).
@fr9g_cbl43 жыл бұрын
Спасибо автору за ролик! Я человек со стороны так сказать и сейчас только думаю начать изучать всё, что необходимо для этой профессии. В связи с этим возникает вопрос, неужели всё вышеперечисленное действительно спрашивают на собеседовании на джуна? Какая в этом практическая составляющая?
@НикитаСергеич-з2г Жыл бұрын
Нужно понимать, как работают алгоритмы, которые применяешь. Тогда можно получать более хороший результат, так как знаешь, что можно подкрутить
@СергейЕгоров-ж2т2 жыл бұрын
Ещё бы понять как все эти признаки складывать а то вообще непонятно
@ОлегВоропаев-к6ъ2 жыл бұрын
Скажите, Python может самостоятельно определять тип зависимостей или мы сами должны ему сказать, какой это тип зависимостей? и может ли он сам определять критерии перехода от одной зависимости к другой?
@Igor-sp7tw3 жыл бұрын
Рома а у вас команда Магнит где расположена в Москве или в Краснодаре?
@start_ds3 жыл бұрын
Не особо относится к видео, лучше по таким вопросам писать в tg. Кратко - расположена везде. Договор спокойно оформляется на удалённую работу. У меня в команде есть сильные ребята из разных городов. Офисы есть и в Краснодаре, и в Москве (на Белой площади и Тверской)
@Stesigerl6 ай бұрын
Лучше написать квадрат нормы: |Xw-y|^2, а не (Xw-y)^2.