なるほど! データの種類が N 個あれば、これらのデータは N 次元空間にあると考えられます。 なので、 N > 3 であれば、4つ目以降の主成分を考えることができます。 いかがでしょうか? 主成分の計算方法を見直してみると、理解が深まるかもしれません。
@ゆうき福沢11 ай бұрын
すてき!!
@AIcia_Solid11 ай бұрын
でしょ!🤩 ありがとうございます!(^o^)/
@ikura183 жыл бұрын
Thank you for great videos! These content really helps me understand data analysis. I have a question 🙋♂️ (If you like and have a time, please give me some hint : ) otherwise please ignore me!) In the video of comparison between factor analysis and pca, it was said that FA aims to identifying more essential but hidden factor(it sounds like it’s more exploratory)and PCA aim to compress num of featured without losing information as much as possible. (It sounds like it’s for calculation efficiency) I’m wondering if it’s fine to guess what the components of “PCA” mean here. I thought they are just results of mathematics process and it doesn’t have any meaning theoretically. (I understand the process and result are very similar here so we might be able to get some insight though)
@AIcia_Solid3 жыл бұрын
Thank you for your watching and comment! Your understanding is perfect 😍 And your question is really essential, so I need time to answer 🙇♂️ In my current knowledge, I think it's good to think that the components of PCA is just a mathematical result. (Of course, they can be understood as an intermediate representation of linear auto-encoder as I said in the previous video, but I think this is not your point.) However, I'm not sure since PCA only involves linear algebra thus is simple, so there might be some beautiful meanings. So, if you find such explanation, I'm happy if you let me know. Thank you!!🎉
@ikura183 жыл бұрын
@@AIcia_Solid wow! Thank you so much for very kind and detailed comment! I see. That makes sense. If I can find any info regarding your this topic, I will share somewhere in your channel!
@AIcia_Solid3 жыл бұрын
Thank you so much! If I find, I'll make some comment, too!🎉
ええっと、、、! xがN変数正規分布に従うと仮定します。 w を N 次元ベクトルとし、 確率変数 z = w・x を考えます。 分散最大化は、 V = V[z] の最大化になります。 z のエントロピー S の最大化も、 S = (1 + log(2πV))/2 の最大化なので、結局 V の最大化になります。 つまり、分散最大化も、エントロピー最大化も、同じ結論を与える(同値)です。 こんな感じです! 前のはかなりはしょってたので、伝わらなかったかもです。 これでいかがでしょう? (ちなみに私はアイシアです😋)
@nradio85434 жыл бұрын
@@AIcia_Solid アイシアさん回答ありがとうございます。 wじゃなくて分散ですね。 一日置いてから見てみて、分散行列と係数行列を勘違いしてました。 S = (1 + log(2πV))/2 がどう導出されるか分かりませんでした。 しかし、ここに導出があり、アイシアさんの回答と合わせてどのように計算するか理解できました。 ありがとうございました。 S = (1 + log(2πV))/2の導出↓ qiita.com/kzkadc/items/40376e2f5b2419e0e152