#25. Метод главных компонент (Principal Component Analysis) | Машинное обучение

  Рет қаралды 10,260

selfedu

selfedu

2 жыл бұрын

Идея метода главных компонент (Principal Component Analysis - PCA). Понятие собственных векторов и собственных чисел.
Инфо-сайт: proproprogs.ru/ml
Телеграм-канал: t.me/machine_learning_selfedu

Пікірлер: 39
@Alex-ho8ke
@Alex-ho8ke 2 жыл бұрын
Хоть и не занимаюсь, не понимаю, не смотрю про машинное обучение, но спасибо за труд который вы делаете)
@konstantinlisitsa8443
@konstantinlisitsa8443 2 жыл бұрын
Занятие - кайф! Клевая идея клево и понятно изложена! Спасибо большое!
@user-bn6dk4ll3g
@user-bn6dk4ll3g 2 жыл бұрын
Сергей, спасибо за Вашу работу!
@pricolno7603
@pricolno7603 4 ай бұрын
респект! единственное непонятно формально, что значит "распределить дисперсию по осям, наилучшим образом", хочется услышать что-то вроде минимизация суммы дисперсий по осям, но видимо нужно копать уже в теорию
@ISAWER1
@ISAWER1 9 ай бұрын
лайк и комментарий в поддержку канала
@impellergimpeller5133
@impellergimpeller5133 2 жыл бұрын
👍👍👍👍👍
@user-sp1gr6xb7q
@user-sp1gr6xb7q Жыл бұрын
Здравствуйте. В Матрице (1/sqrt2, 1/sqrt2, 1/sqrt2, -1/sqrt) 1 / sqrt(2) потому что новый базис повернут на 45 градусов? (Пытаюсь с нуля разлбраться)
@selfedu_rus
@selfedu_rus Жыл бұрын
sqrt(2) нужен, чтобы квадратичная норма вектора была равна 1 (длина вектора равна 1) и, как следствие, это из-за поворота на 45 градусов ))
@vladkrolik2700
@vladkrolik2700 2 жыл бұрын
Здравствуйте можно вопрос, вы являетесь доцентом в ЮФУ может подскажете, есть ли смысл поступать в ЮФУ и учится на заочке, получу ли я там какие-то знания ? и если уже есть бакалавриат нужно ли сдавать экзамены/ЕГЭ (в Крыму можно было поступать без ЕГЭ )
@selfedu_rus
@selfedu_rus 2 жыл бұрын
к ЮФУ я никакого отношения не имею )
@haykmuradyan9956
@haykmuradyan9956 2 жыл бұрын
Этот урок был у меня 2 часа в МЛ курсе, но там я нечего не понял только, что это такое но как работает нечего. Ты очень понятно все говоришь но если не сложно немножко об объяснениях тоже говори, например F* = (1/l)*F^T*F откуда взялась или как от собс. векторов там, что то могут найти
@selfedu_rus
@selfedu_rus 2 жыл бұрын
Это матрица Грама - из курса по математике (вузовской). Фактически, она вычисляет оценку (экспериментальные значения) автоковариационной матрицы признаков по обучающей выборке.
@userpupkin499
@userpupkin499 6 ай бұрын
Вопрос насчёт матрицы Грама. Так то понятно, но в примере это для центрированых данных. А если среднее не равно 0? Надо ли центрировать самому, потом считать матрицу, или все равно сработает? (Без центрирования)?
@selfedu_rus
@selfedu_rus 6 ай бұрын
да, нужно, там ковариации должны получаться
@userpupkin499
@userpupkin499 6 ай бұрын
@@selfedu_rus понял, спасибо!
@gienek_mscislawski
@gienek_mscislawski 2 жыл бұрын
вообще говоря, используя Т для обратимости матриц, надо бы упомянуть, что это имеет место по отношению к ортогональным матрицам. Достаточно материала пересмотрел по теме, через матрицу Грама как-то не встречал:). Тут, конечно много вопросов возникает что откуда берется, но чисто для понимания метода материала достаточно.
@selfedu_rus
@selfedu_rus 2 жыл бұрын
да, для ортогональных векторов обратное преобразование вычисляется через транспонированную матрицу, т.к. в этом случае транспонированная матрица равна обратной
@haykmuradyan9956
@haykmuradyan9956 2 жыл бұрын
Но там возникают вопросы, а если собственные числа будут комплесксными?
@selfedu_rus
@selfedu_rus 2 жыл бұрын
для симметричных матриц с действительными числами собственные векторы получаются действительными
@NationalVerrater
@NationalVerrater Ай бұрын
f1(xk) и f2(xk) это просто х и у?
@_AbUser
@_AbUser 18 күн бұрын
Самое первое предложение с которого должно все начинаться: Метод главных компонент - это, способ линейного преобразования входных данных для..... Кстати, это "для" в итоге так раскрыты и не были вменяемо.. Поняли только те, кто знал до этого... Смысла во всех этих художествах особо не было, ну если конечно чьи то лекции подробно не пересказывать не задумываясь, а что собственно происходит... Ну и в целом, когда стоит вопрос про одно, а начинают рассказывать о казалось бы несвязанных вещах, которые без привязки к рассматриваемому вопросу просто начинают копиться в голове словно снежный ком, то кажется что перед тобой дурачок с дислексией.. Ну вроде с 5-го класса детей учат делать оформление Дано, Найти, Решение... а не Дано, Решение... найти...
@albertasatryan1477
@albertasatryan1477 2 жыл бұрын
То есть матрица Грама, это то же самое, что и ковариационная матрица?
@selfedu_rus
@selfedu_rus 2 жыл бұрын
нет, это то же самое, что оценка ковариационной матрицы по обучающей выборке (точного значения мы не вычисляем)
@gienek_mscislawski
@gienek_mscislawski 2 жыл бұрын
@@selfedu_rus поясните подробнее разницу.
@selfedu_rus
@selfedu_rus 2 жыл бұрын
@@gienek_mscislawski ковариационная матрица - это точное значение корреляций, а матрица Грамма - экспериментальные значения
@gienek_mscislawski
@gienek_mscislawski 2 жыл бұрын
@@selfedu_rus спасибо!
@DB-ms2um
@DB-ms2um 19 күн бұрын
не совсем понятно, как для конкретного собственного значения определяется конкретный собственный вектор. Их же множество значений для каждого собственного числа
@selfedu_rus
@selfedu_rus 19 күн бұрын
нет, для одного собственного вектора только одно собственное значение, оно показывает дисперсию проекций, приходящих на этот собственный вектор
@DB-ms2um
@DB-ms2um 19 күн бұрын
@@selfedu_rus Для собственного вектора понятное дело, что одно собственное значение, вопрос в другом. Каждому собственному значению соответствует множество собственных векторов. Как определяется конкретный вектор из множества собственных векторов, соответствующих какому-то собственному значению? Как выбираются векторы, которые станут новым базисом?
@selfedu_rus
@selfedu_rus 19 күн бұрын
@@DB-ms2um Функция numpy, которая вычисляет собственные числа и векторы сразу их сопоставляет друг с другом.
@DB-ms2um
@DB-ms2um 19 күн бұрын
@@selfedu_rus она не сопоставляет, а выбирает для каждого собственного числа определённый собственный вектор. Вот интересно, как она это делает. Надо погуглить
@selfedu_rus
@selfedu_rus 19 күн бұрын
@@DB-ms2um ну это ж из линейной алгебры уравнение, его решение сразу дает собственные векторы и числа
@pal181
@pal181 2 жыл бұрын
А в чём смысл "уплотнённой информации"? В чём это выражается?
@selfedu_rus
@selfedu_rus 2 жыл бұрын
в какой момент (время) это говорится?
@pal181
@pal181 2 жыл бұрын
@@selfedu_rus 5:25 да, оговорился
@selfedu_rus
@selfedu_rus 2 жыл бұрын
@@pal181 концентрация - это в данном случае означает, что на первую ось, в среднем, приходятся наибольшие проекции, на вторую - меньше, на третью - еще меньше и т.д. Причем, делается это оптимальным образом (лучше уже не сделаешь).
@pal181
@pal181 2 жыл бұрын
@@selfedu_rus Спасибо
StatQuest: Principal Component Analysis (PCA), Step-by-Step
21:58
StatQuest with Josh Starmer
Рет қаралды 2,7 МЛН
КАК СПРЯТАТЬ КОНФЕТЫ
00:59
123 GO! Shorts Russian
Рет қаралды 2,4 МЛН
Don’t take steroids ! 🙏🙏
00:16
Tibo InShape
Рет қаралды 62 МЛН
Метод главных компонент в R (principal component analysis)
10:39
Основы анализа данных
Рет қаралды 14 М.
Principal Component Analysis (PCA)
13:46
Steve Brunton
Рет қаралды 357 М.
Модуль math | Python для начинающих | Профессор код
15:18
02. Что такое производная функции
13:07
StatQuest: PCA in Python
11:37
StatQuest with Josh Starmer
Рет қаралды 197 М.
Простой пример нахождения главных компонент
10:46
Основы анализа данных
Рет қаралды 23 М.
Идея и суть метода главных компонент
7:26
Основы анализа данных
Рет қаралды 51 М.