Лекция 2.4: Градиентный спуск.

  Рет қаралды 20,210

Deep Learning School

Deep Learning School

Күн бұрын

Занятие ведёт Григорий Лелейтнер.
Ссылки на все части:
1. • Лекция 2.1: Линейная р...
2. • Лекция 2.2: LogLoss.
3. • Лекция 2.3: Логистичес...
5. • Лекция 2.5: Регуляриза...
6. • Лекция 2.6: Нормализация.
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_learning_school_news
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschool_mipt
Github-репозиторий: github.com/DLSchool/dlschool
Поддержать канал можно на Boosty: boosty.to/deeplearningschool
ФПМИ МФТИ
Официальный сайт: mipt.ru/education/departments...
Магистратура: mipt.ru/education/departments...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/education/departments...
Другие записи курсов от Лектория ФИВТ вы можете найти на канале / @stfpmi

Пікірлер: 9
@gothluv4740
@gothluv4740 10 ай бұрын
объяснил суть производной и для чего она лучше чем учителя в школе и преподы в универе
@user-is3kd9ye9h
@user-is3kd9ye9h 3 жыл бұрын
11:20 Почему внутри суммы (сигма большая) не ставите скобки? Ведь вычитаемое входит в сумму и суммируется по i. А у вас оно отпадает от суммы.
@datascience5487
@datascience5487 2 жыл бұрын
Не могу понять вычисление шага (5:19). В чем математически смысл изменения переменной функции именно на величину производной при такой переменной умноженной на learning rate? Почему надо делать именно такое изменение? Понятно, что это сдвигает переменную x в нужную сторону, постепенно уменьшая или увеличивая его, но почему именно так, в чем его смысл? Это как из расстояния вычесть скорость. Правильно ли я понимаю, что learning rate можно рассматривать как время?
@user-bt9ur4rh4w
@user-bt9ur4rh4w Жыл бұрын
Ты нашёл ответ на свой вопрос? А то я тоже не понял
@Kot_Matroskin135
@Kot_Matroskin135 11 ай бұрын
Не, это надо, чтобы у тебя величина, которую ты вычитаешь, тоже уменьшалась. В минимуме у тебя производная будет стремиться к нулю, значит и величина, которую ты вычитаешь, тоже будет стремиться к нулю. Таким образом ты быстрее найдешь минимум и уменьшается вероятность перескочить этот самый минимум. Формально можно и константу вычитать, но, как я уже выше написал, это полная херня
@nikolaikrot8516
@nikolaikrot8516 3 жыл бұрын
На этом слайте "Градиентный спуск для логистической регрессии" 10:59 (kzbin.info/www/bejne/j4jVZIZnftahorM) все в порядке со знаками?
@anton8682
@anton8682 3 жыл бұрын
Здравствуйте, откуда на 11:40 взялось x_ij?
@cicik57
@cicik57 2 жыл бұрын
вроде бы логистическую регрессию считают от софтмакса и там получится просто разность
@TheBestRussianPub
@TheBestRussianPub 9 ай бұрын
Да, это для дискретных систем. В непрерывных именно таким образом считается. Просто это надо знать, чтобы понимать как переход осуществляется.
Основы машинного обучения, лекция 6 - градиентный спуск
1:20:49
ФКН ВШЭ — дистанционные занятия
Рет қаралды 2,2 М.
Luck Decides My Future Again 🍀🍀🍀 #katebrush #shorts
00:19
Kate Brush
Рет қаралды 8 МЛН
孩子多的烦恼?#火影忍者 #家庭 #佐助
00:31
火影忍者一家
Рет қаралды 29 МЛН
Лекция 2.5: Регуляризация.
5:03
Deep Learning School
Рет қаралды 7 М.
Основы машинного обучения, лекция 6 - градиентный спуск
1:04:08
ФКН ВШЭ — дистанционные занятия
Рет қаралды 2,7 М.
Лекция. Градиентная оптимизация в Deep Learning
36:09
Математика. Приемы быстрого счета.
58:18
Школа Шаталова
Рет қаралды 403 М.
Luck Decides My Future Again 🍀🍀🍀 #katebrush #shorts
00:19
Kate Brush
Рет қаралды 8 МЛН