Почему L1 регуляризация отбирает признаки? Понятное объяснение

  Рет қаралды 2,651

Лёша Бухтияров

Лёша Бухтияров

Күн бұрын

Пікірлер: 21
@user-os4os9lv1u
@user-os4os9lv1u 5 ай бұрын
Спасибо тебе Леша Бухтияров
@daniil4944
@daniil4944 Жыл бұрын
Спасибо большое за видео! Практически везде, где читал, эти линии уровня объяснялись не совсем понятно. Лайк поставил, подписался!
@user-jd6uz5si2f
@user-jd6uz5si2f 6 ай бұрын
Леха красава!
@richardrgb6086
@richardrgb6086 11 ай бұрын
очень классно
@kirilll.568
@kirilll.568 Жыл бұрын
Отличное видео! Но к сожалению я не нашел ответа на вопрос с которым сюда пришел... Хотелось бы пруфов, что в большинстве случаев совместный минимум MSE и L1 лежит в вершине, а не ребре.
@odu1_chik
@odu1_chik 2 жыл бұрын
ааа, спасибо тебе, мне криво объяснили, а ты просто все по полочкам разложил!!
@user-kw1ye8so9n
@user-kw1ye8so9n 10 ай бұрын
Вот так понятно
@exactlyUnM
@exactlyUnM 2 жыл бұрын
Видео супер, все очень понятно объяснено, спасибо! Единственная просьба, можно ли небольшое доп. разъяснение почему линии уровня MSE эллипсы?
@leshanbog
@leshanbog 2 жыл бұрын
Спасибо за отзыв :) Допустим веса двумерные. Тогда MSE как функция от весов для фиксированного объекта (x, y), где двумерный вектор x=(x1,x2), будет выглядеть как то так: (w1*x1 + w2*x2 - y)^2. То есть это многочлен второй степени от весов. Если просуммировать по объектам, то он все ещё многочлен второй степени от весов. Линии уровня получаются, когда мы приравниваем это выражение константе. Оно будет задавать уравнение эллипса ru.wikipedia.org/wiki/%D0%9A%D1%80%D0%B8%D0%B2%D0%B0%D1%8F_%D0%B2%D1%82%D0%BE%D1%80%D0%BE%D0%B3%D0%BE_%D0%BF%D0%BE%D1%80%D1%8F%D0%B4%D0%BA%D0%B0#%D0%9A%D0%BB%D0%B0%D1%81%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%86%D0%B8%D1%8F_%D0%BA%D1%80%D0%B8%D0%B2%D1%8B%D1%85_%D0%B2%D1%82%D0%BE%D1%80%D0%BE%D0%B3%D0%BE_%D0%BF%D0%BE%D1%80%D1%8F%D0%B4%D0%BA%D0%B0_%D0%BE%D1%82%D0%BD%D0%BE%D1%81%D0%B8%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D0%BE_%D0%B7%D0%BD%D0%B0%D1%87%D0%B5%D0%BD%D0%B8%D0%B9_%D0%B8%D0%BD%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D0%BD%D1%82%D0%BE%D0%B2
@wayer5204
@wayer5204 2 жыл бұрын
Капец, эту штуку не мог понять, а ты прям так ровно и последовательно разъяснил, что и вопросов не осталось... Извини за личный вопрос, ты работаешь в DS? Я просто пока учусь на 3м курсе в МГУ, но хочу параллельно трудоустроиться в DS
@leshanbog
@leshanbog 2 жыл бұрын
Спасибо за отзыв :) Да, сейчас работаю в Яндексе над применением языковых моделей
@wayer5204
@wayer5204 2 жыл бұрын
@@leshanbog Круто, посмотрел твое интервью, кстати, очень круто ты за жизнь разъясняешь. Сейчас пока готовлюсь, слышал, войти в ДС сложно, может у тебя есть какая-нибудь стоящая информация по рынку найма в DS на текущие дни? Хочется понять, как трудоустроится как можно скорее(при всех должных знаниях и навыках естественно)
@dubaichhh
@dubaichhh Жыл бұрын
Спасибо огромное за видео, у меня вопрос. Ведь может так произойти, что точка касания линий уровня лосса с l2 регуляризатором произойдет в нуле для одной из осей. В этом случае тоже признаки занулятся?
@pinggg98
@pinggg98 11 ай бұрын
Нашел ответ на вопрос?
@dubaichhh
@dubaichhh 11 ай бұрын
увы, пока нет@@pinggg98
@kamila5207
@kamila5207 Жыл бұрын
А почему все таки при l2-регуляризация невозможно касание лоссов с занулением признака ? Почему они не могут так коснуться ?
@pinggg98
@pinggg98 11 ай бұрын
Нашел ответ на вопрос?
@grigogiyreznichenko2033
@grigogiyreznichenko2033 2 жыл бұрын
Это получается для задачи условной оптимизации существует множество решений ?
@leshanbog
@leshanbog 2 жыл бұрын
Нет, добавление регуляризации (что эквивалентно переходу к условной минимизации) как раз позволяет выбрать из бесконечного количества решений одно единственное - с минимальной нормой. Так удобно думать в первом приближении, хотя справедливо не во всех случаях (и без регуляризации решение может быть единственно, и с ней может быть не единственно, ...)
@grigogiyreznichenko2033
@grigogiyreznichenko2033 2 жыл бұрын
@@leshanbog тада картинки нарисованы не оч понятно. Я полагаю кстати слово регуляризация подразумевает добавление регулярного члена к случайной функции стоимости. Тем не менее великолепный урок. Спасибо.
@leshanbog
@leshanbog 2 жыл бұрын
@@grigogiyreznichenko2033 В более широком смысле, регуляризацией называют все техники, которые помогают избежать переобучения (например, Dropout или просто добавление данных). Я про это упоминаю в ролике про регуляризацию в линейных моделях. Спасибо за фидбек :)
Became invisible for one day!  #funny #wednesday #memes
00:25
Watch Me
Рет қаралды 58 МЛН
- А что в креме? - Это кАкАооо! #КондитерДети
00:24
Телеканал ПЯТНИЦА
Рет қаралды 7 МЛН
ОСКАР vs БАДАБУМЧИК БОЙ!  УВЕЗЛИ на СКОРОЙ!
13:45
Бадабумчик
Рет қаралды 5 МЛН
Regularization Part 1: Ridge (L2) Regression
20:27
StatQuest with Josh Starmer
Рет қаралды 1 МЛН
Зачем нужны указатели в C++?
8:14
Ridge Regression
16:54
ritvikmath
Рет қаралды 126 М.
Парадокс производной | Суть Матанализа, глава 2
16:31
Became invisible for one day!  #funny #wednesday #memes
00:25
Watch Me
Рет қаралды 58 МЛН