#16. Байесовский вывод. Наивная байесовская классификация | Машинное обучение

  Рет қаралды 11,100

selfedu

selfedu

Жыл бұрын

Оптимальный байесовский классификатор. Наивный байесовский классификатор. Пример задачи классификации наивным байесовским классификатором.
Инфо-сайт: proproprogs.ru/ml
Телеграм-канал: t.me/machine_learning_selfedu
machine_learning_16.py: github.com/selfedu-rus/machin...
Оптимальный байесовский классификатор: • ЦОС Python #10: Байесо...

Пікірлер: 30
@RNK___
@RNK___ 7 ай бұрын
Спасибо большое! От души душевно по душам и за душу!!!
@alexandercherkashin3512
@alexandercherkashin3512 11 ай бұрын
Остается только надеятся, что указанная выборка данных, по которой строятся распредедения, действительно достаточна, для их построения. Наверное, когда у тебя миллионы данных, то это может сработать. Спасибо за алгоритм!
@micmac8171
@micmac8171 Ай бұрын
Ширина и длина не независимы.
@impellergimpeller5133
@impellergimpeller5133 Жыл бұрын
👍👍👍👍👍
@girrra1233
@girrra1233 6 ай бұрын
Запутался, логрег это тоже НБК при конкретно выбранной функции распределения? Если да чем она такая интересная что ее так выделяют
@cicik57
@cicik57 Жыл бұрын
байесовский классификатор может более менее работать при любом сложном распределении классов или для более интеллектуальной задачи всё таки лучше брать классификацию нейросетью?
@selfedu_rus
@selfedu_rus Жыл бұрын
Все зависит от задачи. Если для данных выборки вы сможете построить ПРВ, то никаких нейросетей не нужно )
@NewbieTM_
@NewbieTM_ Жыл бұрын
Здравствуйте, не подскажете, почему вы перезаливаете те же самые видео?
@selfedu_rus
@selfedu_rus Жыл бұрын
Были некоторые неточности в формулах, поправил (не принципиальные, можно было понять и из прежнего, но здесь все расписал явно)
@NewbieTM_
@NewbieTM_ Жыл бұрын
@@selfedu_rus Видел ваш курс по структуре данных. Будет ли такой же по ML?
@selfedu_rus
@selfedu_rus Жыл бұрын
@@NewbieTM_ думаю об этом
@nikitasobur8011
@nikitasobur8011 4 ай бұрын
Здравствуйте Сергей, спасибо за этот ролик и за плейлист в целом. Скажите, пожалуйста, как можно оценить вид плотности распределения вероятностей признаков по выборке? Для этого используют на практике какие то статистические тесты или как? Что если может показаться сначала, что плотность распределения имеет один вид, но из-за того, что выборка не слишком большая на самом деле плотность распределения другая? Второй вопрос по поводу оценки априорной вероятности появления того или иного класса, насколько я понял, её тоже оценивают по выборке. И если я правильно догадался то, это делают так. Предположим, у нас есть выборка и мы решаем задачу классификации на два класса. И тогда априорная вероятность появления первого класса равна количеству экземпляров, которые мы должны отнести к этому классу (т.е. таких, что их метка класса y=1) делённая на общее число экземпляров в выборке. Но ведь в нашей выборке может быть сильный перекос в классах и тогда эта оценка вероятности будет не корректной.
@selfedu_rus
@selfedu_rus 4 ай бұрын
Фундаментальные вопросы по мат статистике. Могу посоветовать книгу Вентцель Е.С. Теория вероятностей. Для начала очень хорошая.
@makcymal
@makcymal Ай бұрын
Можно воспользоваться методом ядерной оценки плотности
@user-qj6tk5fw9p
@user-qj6tk5fw9p 4 ай бұрын
вопрос, почему в коде к этому уроку, если мы посмотрим чему равны величины a_1(x), a1(x) , то окажется что они могут быть как и отрицательными так и больше единицы, а ведь эти величины являются значениями вероятности принадлежности к какомуто классу?? Это потому что мы отбрасывали некоторые множители при упрощении формул? И также может быть связано с тем что вводили логарифмы?
@geoman666
@geoman666 6 ай бұрын
У меня вопрос по поводу штрафов. Опять же, если рассматривать, что класс C1 - летит военный самолёт, а С2 - не летит, то есть ложная тревога, нам следует брать лямбдаC1 больше, чем лямбдаС2? Поскольку мы берём максимальный аргумент, и мы не хотим пропускать самолёты, нам следует увеличить лямбдаС1, чтобы он почаще перевешивал вероятность класса С2, правильно же?
@selfedu_rus
@selfedu_rus 6 ай бұрын
для военного самолета штраф побольше )
@YbisZX
@YbisZX 6 ай бұрын
11:36 - А куда делись коэффициенты при экспоненте? Там должны еще слагаемые получиться: -ln(2*pi*Sl*Sw) - они разные могут быть для классов +1 и -1.
@selfedu_rus
@selfedu_rus 6 ай бұрын
они не влияют на расположение точки максимума аргумента функции, поэтому могут быть отброшены
@YbisZX
@YbisZX 6 ай бұрын
@@selfedu_rus На сами точки максимума условных вероятностей по классам они не влияют. Но в итоге для нового образа нужно выбрать максимум из результатов по каждому классу. А для каждого класса эти слагаемые-смещения разные, т.к. дисперсии подвыборок каждого класса разные. На графике это выглядит как изменение высоты горбов - и это может повлиять на то какой горб будет выше в данной точке.
@selfedu_rus
@selfedu_rus 6 ай бұрын
@@YbisZX а, вы про эти коэффициенты, не посмотрел вчера в видео... да, если они разные, то нужны, у меня в примере одинаковые, поэтому убрал
@user-by2xi6ut5k
@user-by2xi6ut5k 5 ай бұрын
@@selfedu_rus Добрый день, т.е. итоговые модели должны у нас иметь такой вид? a(y = -1) = ln( 1 / (2Pi * sqrt(Sl_1) * sqrt(Sw_1)) - (l-Ml_1)**2 / (2*Sl_1) - (w - Mw_1)**2 / (2*Sw_1) a(y = +1) = ln( 1 / (2Pi * sqrt(Sl1) * sqrt(Sw1)) - (l-Ml1)**2 / (2*Sl1) - (w - Mw1)**2 / (2*Sw1) У нас ведь разные значения дисперсий Sl_1, Sw_1, Sl1, Sw1. Правильно понимаю?
@user-qj6tk5fw9p
@user-qj6tk5fw9p 4 ай бұрын
@@user-by2xi6ut5k да, мне тоже этот момент показался подозрительным, я думаю что вы правы. т.к. у нас дисперссии отличаются для разных классов, то их нельзя отбрасывать
@tastywhiskyy
@tastywhiskyy Жыл бұрын
Почему этот алгоритм в плейлисте о машинном обучении? Разве здесь что-то обучается?
@selfedu_rus
@selfedu_rus Жыл бұрын
да, параметры плотности распределения вероятности
@tastywhiskyy
@tastywhiskyy Жыл бұрын
@@selfedu_rus понял, это я затупил) спасибо
@user-sc8qz6xy8w
@user-sc8qz6xy8w Жыл бұрын
А длина и ширина божьих коровок из примера точно независимые переменные? Какое то неинтуитивное предположение, неплохо бы для полноты анализа проверить, что они действительно независимы.
@selfedu_rus
@selfedu_rus 8 ай бұрын
в действительности зависимы, но мы упрощаем, полагая их независимыми, и смотрим, можно ли решить задачу при таких допущениях
@user-qj6tk5fw9p
@user-qj6tk5fw9p 4 ай бұрын
Большое спасибо за урок! Хотел спросить, для данных полученных импирическим путем, более правильно как я понимаю, вычислять дисперсию по той формуле которую мы использовали для вычисления в ручную, а не той которая используется функцией np.var()?
@selfedu_rus
@selfedu_rus 4 ай бұрын
по идее результаты должны быть близкими и так и так
Теорема Байеса [3Blue1Brown]
15:05
Vert Dider
Рет қаралды 212 М.
아이스크림으로 체감되는 요즘 물가
00:16
진영민yeongmin
Рет қаралды 59 МЛН
Became invisible for one day!  #funny #wednesday #memes
00:25
Watch Me
Рет қаралды 59 МЛН
50 YouTubers Fight For $1,000,000
41:27
MrBeast
Рет қаралды 167 МЛН
When You Get Ran Over By A Car...
00:15
Jojo Sim
Рет қаралды 34 МЛН
Наивный Байес
7:56
Центр digital профессий ITtensive
Рет қаралды 6 М.
Твоя ПЕРВАЯ НЕЙРОСЕТЬ на Python с нуля! | За 10 минут :3
18:31
Хауди Хо™ - Просто о мире IT!
Рет қаралды 241 М.
아이스크림으로 체감되는 요즘 물가
00:16
진영민yeongmin
Рет қаралды 59 МЛН