Идея метода главных компонент (Principal Component Analysis - PCA). Понятие собственных векторов и собственных чисел. Инфо-сайт: proproprogs.ru/ml Телеграм-канал: t.me/machine_learning_selfedu
Пікірлер: 39
@Alex-ho8ke2 жыл бұрын
Хоть и не занимаюсь, не понимаю, не смотрю про машинное обучение, но спасибо за труд который вы делаете)
@konstantinlisitsa84432 жыл бұрын
Занятие - кайф! Клевая идея клево и понятно изложена! Спасибо большое!
@user-bn6dk4ll3g2 жыл бұрын
Сергей, спасибо за Вашу работу!
@pricolno76034 ай бұрын
респект! единственное непонятно формально, что значит "распределить дисперсию по осям, наилучшим образом", хочется услышать что-то вроде минимизация суммы дисперсий по осям, но видимо нужно копать уже в теорию
@ISAWER19 ай бұрын
лайк и комментарий в поддержку канала
@impellergimpeller51332 жыл бұрын
👍👍👍👍👍
@user-sp1gr6xb7q Жыл бұрын
Здравствуйте. В Матрице (1/sqrt2, 1/sqrt2, 1/sqrt2, -1/sqrt) 1 / sqrt(2) потому что новый базис повернут на 45 градусов? (Пытаюсь с нуля разлбраться)
@selfedu_rus Жыл бұрын
sqrt(2) нужен, чтобы квадратичная норма вектора была равна 1 (длина вектора равна 1) и, как следствие, это из-за поворота на 45 градусов ))
@vladkrolik27002 жыл бұрын
Здравствуйте можно вопрос, вы являетесь доцентом в ЮФУ может подскажете, есть ли смысл поступать в ЮФУ и учится на заочке, получу ли я там какие-то знания ? и если уже есть бакалавриат нужно ли сдавать экзамены/ЕГЭ (в Крыму можно было поступать без ЕГЭ )
@selfedu_rus2 жыл бұрын
к ЮФУ я никакого отношения не имею )
@haykmuradyan99562 жыл бұрын
Этот урок был у меня 2 часа в МЛ курсе, но там я нечего не понял только, что это такое но как работает нечего. Ты очень понятно все говоришь но если не сложно немножко об объяснениях тоже говори, например F* = (1/l)*F^T*F откуда взялась или как от собс. векторов там, что то могут найти
@selfedu_rus2 жыл бұрын
Это матрица Грама - из курса по математике (вузовской). Фактически, она вычисляет оценку (экспериментальные значения) автоковариационной матрицы признаков по обучающей выборке.
@userpupkin4996 ай бұрын
Вопрос насчёт матрицы Грама. Так то понятно, но в примере это для центрированых данных. А если среднее не равно 0? Надо ли центрировать самому, потом считать матрицу, или все равно сработает? (Без центрирования)?
@selfedu_rus6 ай бұрын
да, нужно, там ковариации должны получаться
@userpupkin4996 ай бұрын
@@selfedu_rus понял, спасибо!
@gienek_mscislawski2 жыл бұрын
вообще говоря, используя Т для обратимости матриц, надо бы упомянуть, что это имеет место по отношению к ортогональным матрицам. Достаточно материала пересмотрел по теме, через матрицу Грама как-то не встречал:). Тут, конечно много вопросов возникает что откуда берется, но чисто для понимания метода материала достаточно.
@selfedu_rus2 жыл бұрын
да, для ортогональных векторов обратное преобразование вычисляется через транспонированную матрицу, т.к. в этом случае транспонированная матрица равна обратной
@haykmuradyan99562 жыл бұрын
Но там возникают вопросы, а если собственные числа будут комплесксными?
@selfedu_rus2 жыл бұрын
для симметричных матриц с действительными числами собственные векторы получаются действительными
@NationalVerraterАй бұрын
f1(xk) и f2(xk) это просто х и у?
@_AbUser18 күн бұрын
Самое первое предложение с которого должно все начинаться: Метод главных компонент - это, способ линейного преобразования входных данных для..... Кстати, это "для" в итоге так раскрыты и не были вменяемо.. Поняли только те, кто знал до этого... Смысла во всех этих художествах особо не было, ну если конечно чьи то лекции подробно не пересказывать не задумываясь, а что собственно происходит... Ну и в целом, когда стоит вопрос про одно, а начинают рассказывать о казалось бы несвязанных вещах, которые без привязки к рассматриваемому вопросу просто начинают копиться в голове словно снежный ком, то кажется что перед тобой дурачок с дислексией.. Ну вроде с 5-го класса детей учат делать оформление Дано, Найти, Решение... а не Дано, Решение... найти...
@albertasatryan14772 жыл бұрын
То есть матрица Грама, это то же самое, что и ковариационная матрица?
@selfedu_rus2 жыл бұрын
нет, это то же самое, что оценка ковариационной матрицы по обучающей выборке (точного значения мы не вычисляем)
@gienek_mscislawski2 жыл бұрын
@@selfedu_rus поясните подробнее разницу.
@selfedu_rus2 жыл бұрын
@@gienek_mscislawski ковариационная матрица - это точное значение корреляций, а матрица Грамма - экспериментальные значения
@gienek_mscislawski2 жыл бұрын
@@selfedu_rus спасибо!
@DB-ms2um19 күн бұрын
не совсем понятно, как для конкретного собственного значения определяется конкретный собственный вектор. Их же множество значений для каждого собственного числа
@selfedu_rus19 күн бұрын
нет, для одного собственного вектора только одно собственное значение, оно показывает дисперсию проекций, приходящих на этот собственный вектор
@DB-ms2um19 күн бұрын
@@selfedu_rus Для собственного вектора понятное дело, что одно собственное значение, вопрос в другом. Каждому собственному значению соответствует множество собственных векторов. Как определяется конкретный вектор из множества собственных векторов, соответствующих какому-то собственному значению? Как выбираются векторы, которые станут новым базисом?
@selfedu_rus19 күн бұрын
@@DB-ms2um Функция numpy, которая вычисляет собственные числа и векторы сразу их сопоставляет друг с другом.
@DB-ms2um19 күн бұрын
@@selfedu_rus она не сопоставляет, а выбирает для каждого собственного числа определённый собственный вектор. Вот интересно, как она это делает. Надо погуглить
@selfedu_rus19 күн бұрын
@@DB-ms2um ну это ж из линейной алгебры уравнение, его решение сразу дает собственные векторы и числа
@pal1812 жыл бұрын
А в чём смысл "уплотнённой информации"? В чём это выражается?
@selfedu_rus2 жыл бұрын
в какой момент (время) это говорится?
@pal1812 жыл бұрын
@@selfedu_rus 5:25 да, оговорился
@selfedu_rus2 жыл бұрын
@@pal181 концентрация - это в данном случае означает, что на первую ось, в среднем, приходятся наибольшие проекции, на вторую - меньше, на третью - еще меньше и т.д. Причем, делается это оптимальным образом (лучше уже не сделаешь).