Очен интересная тема, что порекомендуете посмотреt/почитаt по математические выражения (учился давно, узе подзабыл как читаются формулы)
@selfedu_rus2 жыл бұрын
в первом занятии уже рекомендовал
@СарматПересветов8 ай бұрын
Во первых, большое спасибо за урок! А во вторых, после изучения данного урока на ум приходит закономерный вопрос. Если мы предполагаем что для всех классов коввариационная матрица будет одинакова, что в природе мне кажется очень, очень маловероятно, то получается у всех классов для соответствующих параметров будет одинаковая дисперсия. из чего можно зделать вывод, зачем тогда нам вообще находить эту коввариационную матрицу, когда по сути роль будут играть только математические ожидания соответствующих параметров, соответствующих классов. и нам остается только найти эти математические ожидания (по всем признакам для каждого класса) которым будет соответствовать некая точка в многомерном пространстве, и нам остается только измерить расстояние от точки (обьекта) который мы хотим классифицировать до точек математических ожиданий возможных классов. и соответственно к какой точке (какого класса) классифицируемый обьект будет ближе, к тому классу он и относится. и все эти формулы и вычисления по сути не имеют смысла. Я прав???
@impellergimpeller51332 жыл бұрын
👍👍👍👍👍
@YbisZX Жыл бұрын
@selfedu 3:33 Понятно, как линейный классификатор делит линией два класса, но если их несколько, то что отделяет линия каждого a(x|y)? Например, если три класса примерно в линию, то средний класс отделяется от двух соседних...
@selfedu_rus Жыл бұрын
он применяется для бинарной классификации, если классов несколько, то нужно использовать один из подходов многоклассовой классификации: proproprogs.ru/ml/ml-mnogoklassovaya-klassifikaciya-metody-one-vs-all-i-all-vs-all
@YbisZX Жыл бұрын
@@selfedu_rus Посмотрел. Я правильно понял, что на 3:25 формула лин.дискр.Фишера _a(x)=argmax_y(x*ay+by)_ является по сути формулой one-vs-all?
@selfedu_rus Жыл бұрын
@@YbisZX ну она же для двух классов, какие здесь one-vs-all? )
@YbisZX Жыл бұрын
@@selfedu_rus Не понял, формула Фишера для двух классов? Но на 3:25 ты пишешь ков.матрицы для y1,y2...yk, через несколько секунд упоминаешь много классов, и классификатор argmax по всем y из Y. С чего вдруг стало два класса? Вероятностные классификаторы это же argmax по плотности вероятности M классов...
@selfedu_rus Жыл бұрын
@@YbisZX А, ну да, сорри, там полагается многоклассовая классификация с выводом того класса, для которого модель выдает наибольшее значение.
@СарматПересветов8 ай бұрын
и еще вопрос. Что бы найти коввариационную матрицу, нам нужно найти среднее отклонение, а для этого нужно найти математическое ожидание, относительно которого мы будем отталкиваться ища среднее отклонение. и я так понимаю что это математическое ожидание (для коввариационной матрицы) мы будем искать тоже по всем обьектам обучающей выборки. А математическое ожидание которое будет подставлено в формулу p(x|y) мы будем уже искать для каждого класса свою, по обьектам обучающей выборки именно соответствующего класса??