Градиентный метод | метод скорейшего спуска + пример

  Рет қаралды 14,602

Даниил Копылов

Даниил Копылов

Күн бұрын

Пікірлер: 23
@antisocial478
@antisocial478 3 жыл бұрын
У вас очень хорошо получается объяснять материал. Никогда не думал, что доучусь до магистратуры и не смогу понимать своих преподавателей. Спасибо Вам. Стало понятнее.
@ВладКозловский-у3э
@ВладКозловский-у3э 2 жыл бұрын
В целом видос помог разобраться как работает градиентный спуск, огромное спасибо автору, но вот момент с вычисление альфа вызывал вопросы, для тех кто не понял альфа можно найти любым методом нахождения минимума одномерной функции. И ещё стоит сказать, что не обязательно искать минимум аргумента градиента функции, достаточно найти минимум аргумента функции.
@PhyzmatClass
@PhyzmatClass 10 ай бұрын
Вы заранее знали координаты экстремума и к нему двигались и на нем остановились. А если заранее эта точка неизвестна, то как найти ее координаты? Тогда придется на каждом шагу проверять стала ли функция меньше или начала расти?
@artem-314
@artem-314 4 ай бұрын
Молодец, большинству лекторов стоило бы у вас поучиться 🎉
@АндрейБолконский-г7ф
@АндрейБолконский-г7ф 3 жыл бұрын
Крутое видео, спасибо!
@alisasnag7097
@alisasnag7097 2 жыл бұрын
Самое классное объяснение, что я нашла. Это видео будет последним по теме, теперь все понятно. Спасибо!
@PhyzmatClass
@PhyzmatClass 10 ай бұрын
Зачем нужен метод градиентного спуска, если для функций двух переменных есть четкие алгоритмы нахождения экстремумов? Через частные производные и отыскание стационарных точек. Подобные алгоритмы есть и для функций большего числа переменных.
@talyblyruslan8628
@talyblyruslan8628 2 жыл бұрын
Добрый день. Подскажите пж, как можно с вами связаться? Не нашел ссылки на вк/телеграмм
@ДаниилКопылов-о1п
@ДаниилКопылов-о1п Жыл бұрын
@it_daniil telegram
@evilmetalhead666
@evilmetalhead666 2 жыл бұрын
Можно Вас попросить сделать видео по D-оптимальных планах и как их реализовать. Очень нужно
@llinchossss
@llinchossss Жыл бұрын
какое клевое видео, спасшее новичка в ML!✨🥰
@vladlenvolkov9034
@vladlenvolkov9034 2 жыл бұрын
Откуда появилась первая "2" когда вы писали в примере "F(x) = 2(x-2)/2(x-3)..." ?
@vladlenvolkov9034
@vladlenvolkov9034 2 жыл бұрын
все не нужно я понял, 2 по умолчанию
@ДаниилКопылов-о1п
@ДаниилКопылов-о1п 2 жыл бұрын
Там в видео небольшая неточность, когда я снимал, я допустил оплошность и не записал x1 и x2, что внесло небольшую путаницу. Градиент это частные производные d [(x1-2)^2 +(x1-3)^2]/dx1= d [(x1-2)^2]/dx1 =2(x1-2)*d[x1-2]/dx1 =2(x1-2)*1 Второе слагаемое у нас как константа, а производная от константы 0, остаётся только первая скобка в квадрате ее мы и дифференцируем (как сложную функцию)
@thetruthsofcivilizations6727
@thetruthsofcivilizations6727 2 жыл бұрын
Поясните, пожалуйста, альфа 0,5 откуда взялась?
@ДаниилКопылов-о1п
@ДаниилКопылов-о1п 2 жыл бұрын
Да просто предположил и угадал. это другая задача. Считается более простой.
@ДмитрийСафронов-ю5з
@ДмитрийСафронов-ю5з 2 жыл бұрын
Если представить длину вектора градиента и проминимизировать ее по alpha, то как раз получим 1/2.
@ЛистПодорожный-ъ5ц
@ЛистПодорожный-ъ5ц Жыл бұрын
Если вам нужно будет найти альфа - подставляете получившийся вектор в Вашу исходную функцию. Первая строчка первый столбец вектора альфа (3 - 2a) это x1, а вторая строчка (6a) это x2. Берёте от этой функции (3-2a)^2 + (6a-3)^2 производную. После полученную производную приравниваете к нулю. И находите из этого уравнения ваш альфа, который уже можно подставить для нахождения следующей точки.
@ЗолотаревВладислав-з7г
@ЗолотаревВладислав-з7г Жыл бұрын
Нашёл сокровища?
@13_chasov_nochi
@13_chasov_nochi 3 жыл бұрын
Спасибо
@МихасСупре
@МихасСупре 2 жыл бұрын
А мне показалось что много лишних слов.
@ДаниилКопылов-о1п
@ДаниилКопылов-о1п 2 жыл бұрын
Ну пока коротко не умею, когда-нибудь научусь)
@КошмарныйМориарти
@КошмарныйМориарти 3 жыл бұрын
Я первый
Лекция 2.4: Градиентный спуск.
12:01
Deep Learning School
Рет қаралды 21 М.
요즘유행 찍는법
0:34
오마이비키 OMV
Рет қаралды 12 МЛН
Caleb Pressley Shows TSA How It’s Done
0:28
Barstool Sports
Рет қаралды 60 МЛН
Vampire SUCKS Human Energy 🧛🏻‍♂️🪫 (ft. @StevenHe )
0:34
Alan Chikin Chow
Рет қаралды 138 МЛН
"Идеальное" преступление
0:39
Кик Брейнс
Рет қаралды 1,4 МЛН
ИМРС 4.3 Метод градиентного спуска
18:29
Градиентный спуск на пальцах
11:22
Задача оптимального управления + пример решения
24:06
Метод штрафных функций
15:08
Даниил Копылов
Рет қаралды 3,2 М.
Метод множителей Лагранжа
15:11
Иван Родионов
Рет қаралды 13 М.
Лекция. Градиентная оптимизация
27:52
Deep Learning School
Рет қаралды 18 М.
요즘유행 찍는법
0:34
오마이비키 OMV
Рет қаралды 12 МЛН