#13. Логистическая регрессия. Вероятностный взгляд на машинное обучение | Машинное обучение

  Рет қаралды 13,735

selfedu

selfedu

Күн бұрын

Пікірлер: 23
@LightningTrooper
@LightningTrooper 2 жыл бұрын
В очередной раз низкий поклон Вам за труды! Отлично изложен сложный материал, с приложенным к нему текстом и доп разбором сложного момента.
@stoksful
@stoksful 2 жыл бұрын
Эти лучшее что получилось найти, автор, молодец.
@АтласКазуал
@АтласКазуал 2 жыл бұрын
Так вот он ты какой кот Шредингера) Спасибо.
@СарматПересветов
@СарматПересветов 9 ай бұрын
Чем дальше, тем материал усложняется, спасибо вам за ваш труд!
@lifeisbeautifu1
@lifeisbeautifu1 9 ай бұрын
Большое спасибо!
@НиколайНовиков-ъ3я
@НиколайНовиков-ъ3я 2 ай бұрын
Прекрасное видео! Спасибо Вам большое! Это потрясающе! Однако, вишенкой на торте было бы решение Вашего примера))
@alexdubkov6998
@alexdubkov6998 2 жыл бұрын
Отлично! Спасибо за объяснение
@iotone7525
@iotone7525 Жыл бұрын
Неужели хоть кто-то додумался объяснить на примере, а не просто сыпать абстрактно непонятными математическими терминами и кракозябрами.
@Fjfdjnffnn
@Fjfdjnffnn 9 ай бұрын
Не понимаю. Если у нас по исходной выборке вероятность 0.5, то зачем решать задачу максификации вероятности? Ее нужно не максифицировать, а устремить к 0.5, иначе она данные не опишет.
@lime9603
@lime9603 2 жыл бұрын
Спасибо!!!
@hopelesssuprem1867
@hopelesssuprem1867 2 жыл бұрын
Сергей, спасибо за видео, но есть вопрос: не совсем понятно как именно мы получаем веса для линейной ф-ции, было бы хорошо, если бы вы продемонстрировали их нахождение вручную
@selfedu_rus
@selfedu_rus 2 жыл бұрын
Я в этом видео показываю связь логистической регрессии с вероятностью - это главная тема. Веса модели находить следует также, как мы это делали на предыдущих занятиях, например, с помощью SGD по обучающей выборке.
@hopelesssuprem1867
@hopelesssuprem1867 2 жыл бұрын
@@selfedu_rus понял, спасибо)
@YbisZX
@YbisZX Жыл бұрын
@@selfedu_rus Т.е. при логистической регрессии модель обучается точно также как и при бинарной классификации, разница только в том, какой ответ мы из нее берем: не однозначно класс y=sign(w.T*x), а вероятность класса P(+1|x)=1/(1+e^(-w.T*x*1))? И еще не освещался вопрос как обучать модель при М-классификации. Учить M бинарных моделей про принципу класс/не_класс, затем прогонять каждый класс по своей модели и сравнивать w_y.T*x?
@selfedu_rus
@selfedu_rus Жыл бұрын
@@YbisZX Да, по первой части все верно сказали. Насчет многоклассовой классификации есть видео на эту тему: kzbin.info/www/bejne/lYXbeWCYpMmYgc0
@YbisZX
@YbisZX Жыл бұрын
@@selfedu_rus Спасибо! Проглядел в списке.
@iotone7525
@iotone7525 Жыл бұрын
x = [10000,1,1,2]T. Что означают квадратные скобки? Это типа как массив? Что такое T?
@selfedu_rus
@selfedu_rus Жыл бұрын
см. курс по Numpy
@gvinopal
@gvinopal 2 жыл бұрын
даже если мы расчитываем не метку классса, а его вероятность , в конечном счете, обученная модель это детерменестическая функция которая получает (10.000,1,1,2) и выдает результат(3/6). в зависимости от нашего, порога мы получим значение класса -1,1,или неопределено. мне непонятно влияние вероятностной модели для данной конкретной строки данных,ведь я всегда буду получать один и тот же результат
@selfedu_rus
@selfedu_rus 2 жыл бұрын
здесь вероятность следует воспринимать, как степень уверенности классификатора в своем выборе
@gvinopal
@gvinopal 2 жыл бұрын
@@selfedu_rus Это понятно, не понятно как интерпретировать результат для этой конкретной строки данных
@selfedu_rus
@selfedu_rus 2 жыл бұрын
имеем 0,5, т.е. на грани - здесь уже сам разработчик решает, что делать (на практике точное значение 0,5 практически не бывает), но как вариант, можно еще одно значение выдавать, например, 0 - отказ в классификации
@dimachist
@dimachist Жыл бұрын
Спасибо!
Andro, ELMAN, TONI, MONA - Зари (Official Audio)
2:53
RAAVA MUSIC
Рет қаралды 8 МЛН
Wednesday VS Enid: Who is The Best Mommy? #shorts
0:14
Troom Oki Toki
Рет қаралды 50 МЛН
Лекция 2.1: Линейная регрессия.
19:42
Deep Learning School
Рет қаралды 55 М.
Лекция.  Логистическая регрессия
12:15
Deep Learning School
Рет қаралды 25 М.