#18. Линейный дискриминант Фишера | Машинное обучение

  Рет қаралды 6,129

selfedu

selfedu

Күн бұрын

Пікірлер: 13
@taskevich
@taskevich 2 жыл бұрын
Очень круто, спасибо)
@dziorgas
@dziorgas 2 жыл бұрын
Очен интересная тема, что порекомендуете посмотреt/почитаt по математические выражения (учился давно, узе подзабыл как читаются формулы)
@selfedu_rus
@selfedu_rus 2 жыл бұрын
в первом занятии уже рекомендовал
@СарматПересветов
@СарматПересветов 8 ай бұрын
Во первых, большое спасибо за урок! А во вторых, после изучения данного урока на ум приходит закономерный вопрос. Если мы предполагаем что для всех классов коввариационная матрица будет одинакова, что в природе мне кажется очень, очень маловероятно, то получается у всех классов для соответствующих параметров будет одинаковая дисперсия. из чего можно зделать вывод, зачем тогда нам вообще находить эту коввариационную матрицу, когда по сути роль будут играть только математические ожидания соответствующих параметров, соответствующих классов. и нам остается только найти эти математические ожидания (по всем признакам для каждого класса) которым будет соответствовать некая точка в многомерном пространстве, и нам остается только измерить расстояние от точки (обьекта) который мы хотим классифицировать до точек математических ожиданий возможных классов. и соответственно к какой точке (какого класса) классифицируемый обьект будет ближе, к тому классу он и относится. и все эти формулы и вычисления по сути не имеют смысла. Я прав???
@impellergimpeller5133
@impellergimpeller5133 2 жыл бұрын
👍👍👍👍👍
@YbisZX
@YbisZX Жыл бұрын
@selfedu 3:33 Понятно, как линейный классификатор делит линией два класса, но если их несколько, то что отделяет линия каждого a(x|y)? Например, если три класса примерно в линию, то средний класс отделяется от двух соседних...
@selfedu_rus
@selfedu_rus Жыл бұрын
он применяется для бинарной классификации, если классов несколько, то нужно использовать один из подходов многоклассовой классификации: proproprogs.ru/ml/ml-mnogoklassovaya-klassifikaciya-metody-one-vs-all-i-all-vs-all
@YbisZX
@YbisZX Жыл бұрын
@@selfedu_rus Посмотрел. Я правильно понял, что на 3:25 формула лин.дискр.Фишера _a(x)=argmax_y(x*ay+by)_ является по сути формулой one-vs-all?
@selfedu_rus
@selfedu_rus Жыл бұрын
@@YbisZX ну она же для двух классов, какие здесь one-vs-all? )
@YbisZX
@YbisZX Жыл бұрын
@@selfedu_rus Не понял, формула Фишера для двух классов? Но на 3:25 ты пишешь ков.матрицы для y1,y2...yk, через несколько секунд упоминаешь много классов, и классификатор argmax по всем y из Y. С чего вдруг стало два класса? Вероятностные классификаторы это же argmax по плотности вероятности M классов...
@selfedu_rus
@selfedu_rus Жыл бұрын
@@YbisZX А, ну да, сорри, там полагается многоклассовая классификация с выводом того класса, для которого модель выдает наибольшее значение.
@СарматПересветов
@СарматПересветов 8 ай бұрын
и еще вопрос. Что бы найти коввариационную матрицу, нам нужно найти среднее отклонение, а для этого нужно найти математическое ожидание, относительно которого мы будем отталкиваться ища среднее отклонение. и я так понимаю что это математическое ожидание (для коввариационной матрицы) мы будем искать тоже по всем обьектам обучающей выборки. А математическое ожидание которое будет подставлено в формулу p(x|y) мы будем уже искать для каждого класса свою, по обьектам обучающей выборки именно соответствующего класса??
Дискриминантный анализ
19:09
Учиться - значит делать!
Рет қаралды 5 М.
Farmer narrowly escapes tiger attack
00:20
CTV News
Рет қаралды 6 МЛН
Симбу закрыли дома?! 🔒 #симба #симбочка #арти
00:41
Симбочка Пимпочка
Рет қаралды 4,7 МЛН
FOREVER BUNNY
00:14
Natan por Aí
Рет қаралды 29 МЛН
Явление Гиббса
12:39
Математические этюды
Рет қаралды 570
StatQuest: Linear Discriminant Analysis (LDA) clearly explained.
15:12
StatQuest with Josh Starmer
Рет қаралды 780 М.
Жадные алгоритмы
11:10
про АйТи | IT Pro
Рет қаралды 38 М.
Что такое линейная регрессия? Душкин объяснит
7:42
Душкин объяснит
Рет қаралды 12 М.
Farmer narrowly escapes tiger attack
00:20
CTV News
Рет қаралды 6 МЛН