Методы Оптимизации. Семинар 22. Стохастический градиентный спуск

  Рет қаралды 928

Даня Меркулов

Даня Меркулов

Күн бұрын

Пікірлер: 4
@leoniddoskolovich7105
@leoniddoskolovich7105 2 жыл бұрын
Мат.ожидание от вектора со случайно выбранной производной не равно градиенту, а пропорционально ему с коэффициентом 1/n
@fmin
@fmin 2 жыл бұрын
Не совсем понял, если функция вида finite sample average, то мат. ожидание вектора, в котором мы случайно выбираем один индекс из суммы - как раз равно градиенту такой функции? grad = 1/n sum(f'_i). Я в принципе выше говорил, что мы рассматриваем задачи вида минимизации среднего, для него вроде мое утверждение верно. Или я вас не понял?
@Sneg00vik
@Sneg00vik 3 жыл бұрын
Номер семинара в названии ролика наверное должен быть 22? Очень понятно объясняете, с нетерпением жду продолжения.
@fmin
@fmin 3 жыл бұрын
Большое спасибо вам! Да, номер исправил.
It’s all not real
00:15
V.A. show / Магика
Рет қаралды 20 МЛН
黑天使只对C罗有感觉#short #angel #clown
00:39
Super Beauty team
Рет қаралды 36 МЛН
СИНИЙ ИНЕЙ УЖЕ ВЫШЕЛ!❄️
01:01
DO$HIK
Рет қаралды 3,3 МЛН
My scorpion was taken away from me 😢
00:55
TyphoonFast 5
Рет қаралды 2,7 МЛН
It’s all not real
00:15
V.A. show / Магика
Рет қаралды 20 МЛН