В очередной раз низкий поклон Вам за труды! Отлично изложен сложный материал, с приложенным к нему текстом и доп разбором сложного момента.
@stoksful2 жыл бұрын
Эти лучшее что получилось найти, автор, молодец.
@АтласКазуал2 жыл бұрын
Так вот он ты какой кот Шредингера) Спасибо.
@СарматПересветов9 ай бұрын
Чем дальше, тем материал усложняется, спасибо вам за ваш труд!
@lifeisbeautifu19 ай бұрын
Большое спасибо!
@НиколайНовиков-ъ3я2 ай бұрын
Прекрасное видео! Спасибо Вам большое! Это потрясающе! Однако, вишенкой на торте было бы решение Вашего примера))
@alexdubkov69982 жыл бұрын
Отлично! Спасибо за объяснение
@iotone7525 Жыл бұрын
Неужели хоть кто-то додумался объяснить на примере, а не просто сыпать абстрактно непонятными математическими терминами и кракозябрами.
@Fjfdjnffnn9 ай бұрын
Не понимаю. Если у нас по исходной выборке вероятность 0.5, то зачем решать задачу максификации вероятности? Ее нужно не максифицировать, а устремить к 0.5, иначе она данные не опишет.
@lime96032 жыл бұрын
Спасибо!!!
@hopelesssuprem18672 жыл бұрын
Сергей, спасибо за видео, но есть вопрос: не совсем понятно как именно мы получаем веса для линейной ф-ции, было бы хорошо, если бы вы продемонстрировали их нахождение вручную
@selfedu_rus2 жыл бұрын
Я в этом видео показываю связь логистической регрессии с вероятностью - это главная тема. Веса модели находить следует также, как мы это делали на предыдущих занятиях, например, с помощью SGD по обучающей выборке.
@hopelesssuprem18672 жыл бұрын
@@selfedu_rus понял, спасибо)
@YbisZX Жыл бұрын
@@selfedu_rus Т.е. при логистической регрессии модель обучается точно также как и при бинарной классификации, разница только в том, какой ответ мы из нее берем: не однозначно класс y=sign(w.T*x), а вероятность класса P(+1|x)=1/(1+e^(-w.T*x*1))? И еще не освещался вопрос как обучать модель при М-классификации. Учить M бинарных моделей про принципу класс/не_класс, затем прогонять каждый класс по своей модели и сравнивать w_y.T*x?
@selfedu_rus Жыл бұрын
@@YbisZX Да, по первой части все верно сказали. Насчет многоклассовой классификации есть видео на эту тему: kzbin.info/www/bejne/lYXbeWCYpMmYgc0
@YbisZX Жыл бұрын
@@selfedu_rus Спасибо! Проглядел в списке.
@iotone7525 Жыл бұрын
x = [10000,1,1,2]T. Что означают квадратные скобки? Это типа как массив? Что такое T?
@selfedu_rus Жыл бұрын
см. курс по Numpy
@gvinopal2 жыл бұрын
даже если мы расчитываем не метку классса, а его вероятность , в конечном счете, обученная модель это детерменестическая функция которая получает (10.000,1,1,2) и выдает результат(3/6). в зависимости от нашего, порога мы получим значение класса -1,1,или неопределено. мне непонятно влияние вероятностной модели для данной конкретной строки данных,ведь я всегда буду получать один и тот же результат
@selfedu_rus2 жыл бұрын
здесь вероятность следует воспринимать, как степень уверенности классификатора в своем выборе
@gvinopal2 жыл бұрын
@@selfedu_rus Это понятно, не понятно как интерпретировать результат для этой конкретной строки данных
@selfedu_rus2 жыл бұрын
имеем 0,5, т.е. на грани - здесь уже сам разработчик решает, что делать (на практике точное значение 0,5 практически не бывает), но как вариант, можно еще одно значение выдавать, например, 0 - отказ в классификации