Логистическая регрессия, самое простое объяснение!

  Рет қаралды 11,424

Start Career in DS

Start Career in DS

Күн бұрын

Пікірлер: 13
@start_ds
@start_ds Жыл бұрын
t.me/start_ds - Тут публикуются материалы для прокачки скиллов в DS и подготовки к собеседованиям. Пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
@3_ton843
@3_ton843 Жыл бұрын
Спасибо огромнейшее за понятный и интересный разбор этой темы! С нетерпением буду ждать следующих видео :)
@РоманКучерявий-е7э
@РоманКучерявий-е7э 10 ай бұрын
Спасибо большое, очень хорошо обьясняешь
@СергейХромин-у4м
@СергейХромин-у4м 4 ай бұрын
Для кого непонятен вывод на 10:53 Latex-code: Это почти логистическая регрессия, проведем ряд формул Исходный функционал с логарифмами $-\sum_{i=1}^l[y_i=-1]log\sigma() + [y_i=1]log(1 - \sigma()) =$ Подставим сигмоиду $-\sum_{i=1}^l[y_i=-1]log\frac{1}{1 + exp(-)} + [y_i=1]log(1 - \frac{1}{1 + exp(-)}) =$ Приведем дробь к общему знаменателю в $log(1 - \frac{1}{1 + exp(-)})$ и проделаем несложные операции с дробями $-\sum_{i=1}^l[y_i=-1]log\frac{1}{1 + exp(-)} + [y_i=1]log(\frac{1}{1 + exp()}) =$ Воспользуемся свойством логарифма $log(1/x) = -log(x)$ - пропадет минус перед суммой $\sum_{i=1}^l[y_i=-1]log{1 + exp(-)} + [y_i=1]log({1 + exp()}) =$ Слогаемые отличаются только знаком, заметим, что знак перед скалярным произведеним противоположени со знаком индикатора, то есть мы можем просто убрать разделение, заменив знак обратным $y_i$ $\sum_{i=1}^l log(1 + exp(-y_i \times))$
@Wmysterion
@Wmysterion Жыл бұрын
Интересное видео + отсылки на брекин бэд, класс
@Тимыч-я1р
@Тимыч-я1р 9 ай бұрын
Спасибо большое, наконец-то я понял, что такое логрег
@danilarudnev2768
@danilarudnev2768 Жыл бұрын
Спасибо большое очень помогли!
@mikochergin3698
@mikochergin3698 6 ай бұрын
Хорошее видео. На последнем слайде опечатка: в столбце про мошенников в разделе "Таргет" дублируется текст из столбца "Антиспам". А должно быть: 0 - мошенническая операция, 1 - обычная операция.
@Тимыч-я1р
@Тимыч-я1р 9 ай бұрын
Подскажите, пожалуйста, когда будет видео про бустинг?
@escapedraccoon8507
@escapedraccoon8507 4 ай бұрын
Сложнослайд😅 огонь термин
@mikhailzhitnikov3715
@mikhailzhitnikov3715 8 ай бұрын
[yi=+1] это boolean [0,1]?
@Alexxandr____o
@Alexxandr____o 9 ай бұрын
Не понятно как мы нашли веса в начале видео🤔что предсказывали то? если мы строим обычную регрессию, то нам ведь нужен какой-то таргет, для которого мы уравнение линейной регрессии строим.
@freedomtv2295
@freedomtv2295 7 ай бұрын
так тут таргет это и есть столбец который определяет к какому классу принадлежит объект, просто мы его в [0,1] переводим сигмоидой
It’s all not real
00:15
V.A. show / Магика
Рет қаралды 20 МЛН
Мясо вегана? 🧐 @Whatthefshow
01:01
История одного вокалиста
Рет қаралды 7 МЛН
Олмат 9-10 Бета 2 Издержки Лекция 7
1:59:37
Your tutor Polina
Рет қаралды
Лекция 2.1: Линейная регрессия.
19:42
Deep Learning School
Рет қаралды 56 М.
It’s all not real
00:15
V.A. show / Магика
Рет қаралды 20 МЛН