Линейная регрессия. Что внутри sklearn? Зачем градиентный спуск? Что спросят на собеседовании? ч.2

  Рет қаралды 8,606

Start Career in DS

Start Career in DS

Күн бұрын

Пікірлер: 11
@hopelesssuprem1867
@hopelesssuprem1867 2 жыл бұрын
Я пересмотрел много различных видео и могу сказать, что это одно из лучших объяснений. Мб мне все понятно потому что я уже так заботал математику, что сам и не заметил как она стала называться машинным обучением)). Сделайте пж видео по логистической регрессии с примером вычисления т.к. это естественное продолжение линейной регрессии.
@maksim00973
@maksim00973 3 жыл бұрын
Топовый контент, продолжай =)
@plwthme
@plwthme 4 ай бұрын
Очень мощно и кратко, все по делу
@seriouspetrovich7113
@seriouspetrovich7113 Жыл бұрын
7:59 если мы двигаемся в сторону антиградиента, то почему в итоговой формуле для весов берём тот градиент, который был посчитан выше? Перефразирую - не нужно ли было убрать минус перед двойкой?
@tournament-bracket.comadvi3224
@tournament-bracket.comadvi3224 3 жыл бұрын
збс, давай ещё :) А так на самом деле хорошая подача в том смысле что не адски глубоко и не супер поверхностно а весьма наглядно и без лишней воды. Отсылки к материалам кто хочет разобраться лучше тоже огонь
@VanyaQA
@VanyaQA 3 жыл бұрын
Спасибо большое! Главное не останавливайся
@saitaro
@saitaro 2 жыл бұрын
Супер, спасибо!
@ДаниилКраев-я7ч
@ДаниилКраев-я7ч 2 жыл бұрын
Пожалуйста продолжай
@Extremesarova
@Extremesarova 2 жыл бұрын
Спасибо!
@aleksey3750
@aleksey3750 2 жыл бұрын
Круто
@kochkindi
@kochkindi 2 жыл бұрын
Спасибо!!
REAL or FAKE? #beatbox #tiktok
01:03
BeatboxJCOP
Рет қаралды 18 МЛН
人是不能做到吗?#火影忍者 #家人  #佐助
00:20
火影忍者一家
Рет қаралды 20 МЛН
Support each other🤝
00:31
ISSEI / いっせい
Рет қаралды 81 МЛН
В 1.2 Элементы Data Science в инженерных расчетах
25:01
Лекция 10 Прогнозирование временных рядов
1:27:26