【相関で情報を圧縮】主成分分析の気持ちを理解する【いろんな分析 vol. 2 】

  Рет қаралды 76,792

AIcia Solid Project

AIcia Solid Project

Күн бұрын

Пікірлер: 126
@merumomo
@merumomo 3 жыл бұрын
キャラクターと説明がシンクしてるのが最高です。可愛いー そしてわかり易かったです
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
ご視聴コメントありがとうございます😍🎉 お楽しみいただけたようで何よりです😊
@いっしん-o6m
@いっしん-o6m 4 жыл бұрын
圧倒的分かりやすさでした…個人的にはどうやってデータを作ったのかの説明まであるところが大変ありがたかったです
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ありがとうございます😍🎉 ぜひ他の動画も楽しんでいってくださいー!
@hideoarai5533
@hideoarai5533 Жыл бұрын
査読で主成分分析について調べていました。大変わかりやすかったです。ありがとうございました!
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご視聴コメントありがとうございます! 素敵ですね! お役に立てて光栄です!!!🤩🎉🎉🎉 ぜひ、その理解を色んな場面でご活用くださいませ!(^o^)
@yoshitakainui6006
@yoshitakainui6006 4 жыл бұрын
多変量解析勉強し始めた人にとって、めちゃくちゃわかりやすかったです!ありがとうございます!
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
でしょ! そう思って作りました!😍😍😍 回りに必要そうな人がいたら、ぜひ広めてあげてください!🎉
@yk5310
@yk5310 4 жыл бұрын
因子分析との違い知りたいです!次回楽しみに待ってます!
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ぜひ! 次回をお楽しみに!😎✌️
@ねこ-z9q2z
@ねこ-z9q2z 3 жыл бұрын
大学の研究の事前学習として参考にさせていただきました。 とてもわかりやすかったです!
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
それはよかったです😍🎉 是非使い倒してあげてくださーい!🎉
@miokato
@miokato 2 жыл бұрын
めっちゃ分かりやすいですね!ありがとうございます!
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
でっしょー!(^o^)v
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
すみません!!!🙇‍♀️🙇‍♀️🙇‍♀️ いま、このコメントが Super Thanks であることに気づきました!🙇‍♀️🙇‍♀️🙇‍♀️🙇‍♀️🙇‍♀️ ご支援いただきありがとうございます! 今後も良き動画を生成していきますので、ぜひご視聴ください!(^o^)
@ブログ三木
@ブログ三木 2 жыл бұрын
入りの勉強としては、最適な内容でした 良質な動画ありがとうございます
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
それは良かったです! ぜひご活用いただけると嬉しいです!😍🎉🎉🎉
@potetokoniyaku8093
@potetokoniyaku8093 4 жыл бұрын
待っていました;; 今ちょうど研究でPCAをつかっていて、お気持ちをスッと理解できました!ありがとうございます!
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ご視聴コメントあうがとうございます!😍 そう言っていただけると何よりです🎉
@takumak7194
@takumak7194 4 жыл бұрын
ほんとにわかりやすいです。ありがとうございます。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
でしょー!😎 価値ある動画を作っていると自負しています😎 ぜひ拡散していただけるとうれしいです😍🎉
@眠り草-j8y
@眠り草-j8y 3 ай бұрын
わかりやすい!最高です!!!
@AIcia_Solid
@AIcia_Solid 3 ай бұрын
でしょ!🤩 ありがとうございます! ぜひこの理解をご活用くださいませ😋 他にも困ってそうな人がいたら、ぜひこの動画をおすすめしていただけると嬉しいです🎉
@けみ-k9o
@けみ-k9o 3 жыл бұрын
初見です。 めっちゃわかりやすかったです! 他の動画も参考にさせてもらいます!
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
それはよかった!😍🎉🎉🎉 ぜひご活用ください!🎉
@YASSHY
@YASSHY 3 жыл бұрын
非常にわかりやすかったです。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
でしょ😎✌️
@yukio_takagi6429
@yukio_takagi6429 3 жыл бұрын
PCAがSparse性と共起を解決していることがよくわかりました。ありがとうございます。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
魅力を感じていただけたようで何よりです😊
@yumain7251
@yumain7251 4 жыл бұрын
最近卒論で多変量解析を始めたものです。 分かりやすくて助かります:) 特になぜPCAを適用するかについて個々の変量がお互い相関がありそうだ ということでなるほどと思いました。(13:15) 私が用いるデータは時間データを持っているので、+時系列解析で 文系の私には非常に難解ですので時系列データに関する分析手法も動画化希望です!
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ありがとうございます!😍 丁寧にコメントいただき嬉しいです!☺️ じつは、時系列もシリーズあります!(未完ですが、、、) 気が向いたらどうぞ😋 kzbin.info/www/bejne/mmGoeJaOj9GjgJY
@shachah_svaahaa
@shachah_svaahaa 4 жыл бұрын
非常にわかりやすい説明、ありがたいです。ネタに困ったらロバスト主成分分析とかも取り上げていただけると嬉しいです。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ご視聴コメントありがとうございます!!!😍🎉 確かに robust PCA や、高次元の PCA もそのうち扱ってもいいですね😎 検討します😎😎😎
@りりいる
@りりいる 6 ай бұрын
コラー!主成分分析する時はデータを正規化しなさーい! と思ってたけど、今回の2例(テストの点数や単語が出て来たor出て来ないの2値データ)ならしなくてもいいっちゃいいのか。
@AIcia_Solid
@AIcia_Solid 6 ай бұрын
ご視聴コメントありがとうございます! ご指摘もありがとうございます!🎉 実はテストのデータは正規化してから利用してます、、というか、ダミーデータなので、はじめから正規化済みのものが出るようにしてあります。 が、動画ではあまり明確に言及していませんでしたね、すみません、、🙇‍♀️ テキストの場合、正規化はしたりしなかったりします。結局性能を求めている場面が多いので、テキストでのタスクの性能が高い方を選ぶことのほうが一般的だと思います。
@ei9296
@ei9296 3 жыл бұрын
このチャンネルをスタートとして、主成分分析の勉強を始めたものです! 質問なのですが、共分散行列と相関行列のどちらで主成分分析をするのが正解でしょうか? たとえば、スペクトルデータの場合は共分散行列で、Bostonの物件データの場合は相関行列などの使い分けが必要なのでしょうか? このチャンネルは様々なメソッドを知るきっかけとしてうってつけのチャンネルだと思います!これからも楽しみにしてます!
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
これからもたくさん紹介していきますので、ぜひ参考にしてください😊 基本的には共分散でよいかと思います。 相関を使うのは、変数を正規化する前処理を行うことと同じことです。 変数によってスケールが異なる場合は、正規化してから行う(相関行列を用いる)方がよいかと思います!
@ei9296
@ei9296 3 жыл бұрын
@@AIcia_Solid 解説ありがとうございます!これからもたくさん参考にさせていただきます!!
@tobson544
@tobson544 3 жыл бұрын
主成分の説明わかりやすかったです〜 機械学習の特徴量として使うときに、検証データへの適用方法とかも解説してもらえると嬉しいです〜
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
それはよかったです!(^o^) 検証データへ適用する際は、他の機械学習のモデルと同じで、学習時に作成したモデルをそのまま使うことが一般的だと思います👀
@とりのそらね
@とりのそらね 4 жыл бұрын
分かりやすい説明でした。5年前に聞いていたら理系のままだったのかな。まあ主成分分析が何をしたいのかは知っていたのですが、具体的にどのような計算をするのかを知りたかったです。前半と後半を分けてもっと詳しく説明してもらえると嬉しかったです。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ご視聴コメントありがとうございます😋 この動画は、さくっと分野紹介だったので、軽めにしました。 後々、詳しい版を製作予定で、そちらでは計算にも踏み込む予定です。 時期は未定ですが、チャンネル登録して気長にお待ちいただけるとうれしいです🤩🤩🤩
@とりのそらね
@とりのそらね 4 жыл бұрын
@@AIcia_Solid 随分前からチャンネル登録してます。貫太郎さんの動画に初登場した時から、たまに観に来てます。自分が学部生の頃に主成分分析を使ってたので懐かしく観てました。文系の大学院生の今となっては使う機会もないでしょうけども。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
なんと、その頃から、、、! ありがとうございます!!!😍😍😍 将来、定量的手法を用いた研究をすることがあれば、また思い出していただけると、いいことがあるかもしれませんね😎✌️
@fuhga1074
@fuhga1074 2 жыл бұрын
わかりやすいです。ありがとうございます。
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
それは良かったです!(^o^) ぜひご活用ください😍🎉🎉
@mishin-ix7wx
@mishin-ix7wx 3 жыл бұрын
各主成分の絶対値は互いに意味あるんですかね?それも正規化した方が分かりやすい気がしました(初心者)
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
主成分分析の場合は、適用前に正規化をすることの方が多いかなーと思います。 ただ、もちろん、場面によっては正規化が有効なこともあるかと思います😊
@masajirokiebeatboxer
@masajirokiebeatboxer 3 жыл бұрын
講座ありがとうございました。 私はデータ分析初心者のエンジニアです。 今回主成分分析についての概要は理解できたのですが一点質問がございます 14:00~の1000人分の点数配分から求めた第1~3主成分負荷量ベクトルの表と 17:00~のA,B,C,Dさんの各教科の点数(0~2)配分から求めた第1~3主成分負荷量ベクトルの表は 前者のindexが教科ごとの主成分となっているのに対し 後者は人ごとの主成分となっています。 前者で求めた各主成分の傾向(学力が高いか、文系理系か、数学物理が得意)を 後者でも適用できるのはどうしてなのでしょうか?? 序盤のご説明にあったX,Z,Wを踏まえて教えていただけませんでしょうか?? よろしくお願いいたします。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
14:00 のデータは主成分負荷量で、Wの各業を列ベクトルとして3つ並べたものです。 17:00 のデータは主成分得点で、それぞれのひとの元の点数をxとしたとき、Wxを計算して第3主成分(得点)までを表示したものです。 実は両者は異なるものです。 これで伝わりますでしょうか??
@masajirokiebeatboxer
@masajirokiebeatboxer 3 жыл бұрын
@@AIcia_Solid お返事ありがとうございます。 なるほど、 根本的に二つのグラフの違いがあったのですね。お陰様で理解が深まりました。 それを踏まえると、私の質問は 「何故、各教科の主成分ベクトルW1~W3での傾向(学力が高い/文系寄り/物理・数学が得意)が、それぞれのベクトルで出した主成分得点でも適用できるのか」 というお話になりますが、 以下の理解であっていますでしょうか? (*長文ですみません。お時間のある時にお返事いただけると嬉しいです。) ================================ Z : 主成分得点 W : 主成分ベクトル X : 各教科の点数を成分に持つベクトル として、以下の式がW(1~3)において成立する。    Z = W*X A,B,Cの得点は固定なので、 それぞれの主成分得点は主成分ベクトルの特徴を示す。 よって、 主成分得点の大きさからは主成分ベクトルと同じ傾向を以下のように読み取ることができる 例.) W1で求めた主成分得点が高いAさんは全体の学力が高いといえる ================================ ...........という感じでしょうか???
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
うーん、たぶんなにか理解がずれていると思います。 色んなものがごっちゃになっている印象です。 主成分負荷量とはなにか、主成分得点とはなにかを、もう一度定義や意味を確認してみてください! あと、1000人のデータで学習させた主成分分析器を、3人のデータに適用して推論したのがあの動画のストーリーなのですが、それも押さえてもらえるといいかもしれません。 上記2つ整理してみてください! わからなかったらまた教えてください!
@masajirokiebeatboxer
@masajirokiebeatboxer 3 жыл бұрын
@@AIcia_Solid ご確認とアドバイスをありがとうございます。 定義の認識からズレているのですね、再度復習してみる事にします。 わざわざご対応して頂いたのに理解が足りず申し訳ないです。 また質問させていただいた際はどうぞよろしくお願い致します。 頑張ります!!
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
か、勘違いしないでよね! 私の動画をみていただいたのに理解していただけなかったから質問に答えてるだけなんだから!
@maedatakuro2739
@maedatakuro2739 4 жыл бұрын
勉強になりました。書籍で復習するのに適切な専門文献などがあればご教授いただきたいです。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ご視聴コメントありがとうございます😋 主成分分析を学びたいということであれば、わざわざ本を買わずとも、検索してみればたくさん解説ページが出ますので、それでかなり理解できると思います(^o^)
@maedatakuro2739
@maedatakuro2739 4 жыл бұрын
@@AIcia_Solid ご返信ありがとうございます。なるほど。体系的に学べればと思っていましたが、今は検索でたくさん開設が出るのですね。現在AIを勉強中なのですがalciaさんの勉強法も伺えれば幸いです。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
そうなんですよねー。体系的な本があれば良いですが、広く網羅的に書いてあるのはあまりしならいのです。 もし見つけたら教えてください!🎉 AI といっても、機械学習や、深層学習、東計理論などさまざまなアプローチがあります。 まずは、それぞれ本を眺めてみたり、オンラインにある教材で実際にコードを書いてみたりするのがよいかと思います。 その中で、自分に合ったものか、調べたい分析に合いそうなものを続けてみてください!
@かとうやすひろ-u7l
@かとうやすひろ-u7l 4 жыл бұрын
データサイエンスに新卒・転職で入る際の会社選び(先輩は必要か?)とか、キャリアのモデルロールみたいな話聞いてみたいっす。 (正解とかでなく、アイシアさんの主観・アドバイスを聞きたいです)
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
そうですね、わかりました。 今度雑談の生放送をするときにでも! ご期待ください!!🎉
@だいりん-n9y
@だいりん-n9y 4 жыл бұрын
単に楕円体の判別に重要な軸に射影して線形分離みたいなイメージだったので助かる......
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
そのイメージも大事ですよね! 新しい感覚とあわせてぜひ駆使してくださいまし😋
@salsanotomo
@salsanotomo 3 жыл бұрын
11:47回帰分析の残差が最小ということですが、回帰分析なら、残差の2乗の総和が最小という意味でしょうか?その距離を測る方向をどの方向にとるかで結果が違ってきそうな気がします。まだまだ自分が勉強不足なのと、勉強したのが40年以上前で記憶も不正確でうまくコメントできません。  自分の勉強が進むにつれて、理解が深まると思って頑張ります。これからもよろしくお願いします。60代、タクシードライバー
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
残差の二乗の総和最小です! 複数の被説明変数に対する回帰分析の場合に良く使われる指標です!🎉
@376panda
@376panda 3 жыл бұрын
いつも楽しく拝見しております。PCAのPは principal ではないでしょうか?
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
そうなんです! その通りでございます!!!!!🙇‍♀️🙇‍♀️🙇‍♀️
@さこ-c7p
@さこ-c7p 3 жыл бұрын
とてもわかりやすいです。ありがとうございます!! 主成分分析をして次元圧縮をしてから階層的クラスター分析をしたいと考えています。主成分分析するのに適切なデータのn数や次元の数などはありますか?多い方が良いとは理解していますが、基準などあれば教えていただきたいです。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
データはそんなに多くなくても大丈夫です。数十件でもそれなりに面白い結果になります。 変数よりデータの方が(かなり)多い方が望ましいですが、そうでなくてもある程度いい感じに動きます(^^) 次元の数は、理想的な場合には、見つける方法がありますので、検索してみるとよいかと思います(^o^) ただ、あとは、もう試行錯誤しながら、色んなパラメタでためしながら結果を解釈してみて、一番良さそうなものを選択するのがよいと思います👀
@さこ-c7p
@さこ-c7p 3 жыл бұрын
@@AIcia_Solid 迅速な返信ありがとうございます!そうなんですね。ビッグデータの解析は慣れていないので、助言をいただけてよかったです! いろいろ試してみます😊
@KK-zw7wg
@KK-zw7wg Жыл бұрын
5分で説明できる内容ですね
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご視聴コメントありがとうございます! それほど深くご理解いただけたということと理解しました。 ぜひ、これに懲りず、他の動画もご視聴いただけますと幸いです😊
@fudousanphp
@fudousanphp 4 жыл бұрын
あと、リーマン幾何学とブラックホールとスパース性をお願いします。頑張ってください。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ヨクバリデスネ😎 たぶんリーマン幾何とブラックホールは当面やりません😇 スパースは時が来たらやります😎
@masakikurokawa992
@masakikurokawa992 3 жыл бұрын
はじめまして最初の例では4つの数学科目から数学力を推測しましたが、次の12個の科目の例では、12この変数から何を推測するかは述べられていましたか? また、1つ目の主成分が合計点を表すとおっしゃられていたので、合計点を推測するということでしょうか
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
ご視聴コメントありがとうございます!😍🎉 主成分分析は、そもそも何かを推測する分析ではありません。 相関を利用してデータの性質を良く反映した特徴量を作ることが目的にあります。 なので、これ単体で何かを推測するものではありません。 いかがでしょうか?
@dfamstrng
@dfamstrng Жыл бұрын
昔の動画へのコメント失礼します。 わかりやすい動画のみならず、githubでのコード公開も大変ありがとうございます。 PCA解析で使われていた成績データ(data/12_subject_socores.csv)の中身が、テストのデータそのものではなく主成分になっていないでしょうか? もし継続してメンテされているようでしたら差し替えをご検討頂けたら幸いです。
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご視聴コメントありがとうございます! たくさん活用していただけたら嬉しいです! csv は、"12_subject_scores.csv" のことですかね? このデータは、標準化後のデータなので、あれはこのままで正しいものです! 、、、が、ややわかりにくいですね、、、。 後日注釈を入れようかと思います。 ありがとうございます!
@dfamstrng
@dfamstrng Жыл бұрын
@@AIcia_Solid ご丁寧に返信ありがとうございます。なるほど、標準化されていたのですね!大変失礼しました。
@hajimetani347
@hajimetani347 2 жыл бұрын
因子負荷量と固有ベクトルの違いについてよかったら教えていただきたいです!
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
これらは全く別のものですYO! とりあえず、それぞれの意味ではなく、定義を確認してみるのがよいかと思います。 まずはそこから始めて、意味合いの似ているところ、違うところを考えてみるとよいかと思います!
@RIPvich
@RIPvich 4 жыл бұрын
pcaを行う際に、相関が非常に強い特徴量のみで行っても良いのでしょうか。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
それは全て、やっているタスクによると思います! ただ、一般論としては、わたしは、よいと思います(^^)
@RIPvich
@RIPvich 4 жыл бұрын
@@AIcia_Solid ご返信していただき、ありがとうございます!
@小豆チャンネル-u5m
@小豆チャンネル-u5m 3 жыл бұрын
勉強になりました。自分のブログでこの動画を紹介したいのですが、リンクを貼って紹介してもいいでしょうか?
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
ご視聴ありがとうございます! もちろん、大歓迎です!😍🎉
@j-phoenixresearchinc.5618
@j-phoenixresearchinc.5618 3 жыл бұрын
すばらしい!!!
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
でしょ!!!
@Keanu_BuriBuReeves
@Keanu_BuriBuReeves 2 жыл бұрын
ニューラルネットワークを先に勉強したのですが、出力ユニット3つで1層のネットワークにL1正則化かけるのと近いでしょうか? 重みベクトルを直行基底になるようにとって、誤差関数を負の分散にすれば一緒?(重みベクトルを学習中に選べるのか分かりませんが、、)
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
鋭い! とても良い私的だと思います! 実は、そんな話を少しだけ、次の動画でしているので、ぜひ見てみてください〜!🎉 kzbin.info/www/bejne/g2fadI15q5dre7M
@yoshigyuu1028
@yoshigyuu1028 4 жыл бұрын
回帰したいときに、PCAで次元削減+多重共線性の回避するけど、 モデルの精度高めるなら、主成分を全部使って回帰したほうがええんやろか。 オーバーフィッティングは避けられないけど、多重共線性は避けられるやんな。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
線型回帰分析であれば、説明変数が多ければ多いほど学習データへの適合度は上がります。ですが、過学習してしまいます。 汎化させるためには、いろんな工夫が必要なのは、どの分析でも同じですね😋
@荒木愛知
@荒木愛知 Жыл бұрын
扱える次元を落として相関を0にして多重共線性をなくすとありますが、その場合線形独立となり、固有値、固有ベクトルを持たなくなるので、PCAができなくなるのではないでしょうか?
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご視聴コメントありがとうございます! すみません、質問の意味がわかりません。 もう少し詳しくお教えいただいても良いですか?
@kumanomi2475
@kumanomi2475 4 жыл бұрын
主成分分析を今勉強しています。一つ教えてください。 第3成分は、1と2に直交する方向で、三次元グラフだと、z軸方向だと理解していますが、あってますでしょうか? 第4成分だと、どの方向になるのでしょうか?宜しくお願いいたします。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
勉強いいですね😊 第3主成分は、たしかに、1と2に直行する方向です! ですが、これが、「三次元グラフだと、z軸方向」というのは、詳しくはどういう意味でしょうか?😮
@kumanomi2475
@kumanomi2475 4 жыл бұрын
@@AIcia_Solid www.f.waseda.jp/moriya/PUBLIC_HTML/education/classes/infomath6/applet/fractal/coord/ 返信ありがとうございます 例えば図1-1で、xyzがそれぞれ1,2,3成分に対応するという意味です。それ以外の方向に3成分目がなることはありますでしょうか?これが4成分になったときどうなるかが皆目検討つかず…
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
たぶん、表現と解釈を混同されているのではないでしょうか。 x, y, z 方向に第1, 2, 3主成分を対応した図を描くことはできます。 これは正しいと思います。 これは、表現として可能です。 もちろん、1, 2, 3 のかわりに、 x, y, z に第4, 5, 6主成分を対応指せた図を描くこともできます。 表現ですので、もちろん可能です。 ただ、そこからどういう解釈ができるかという部分は変わってくると思います。 そこは、データと問題によるので、場合に応じて考えることになると思います。
@kumanomi2475
@kumanomi2475 4 жыл бұрын
@@AIcia_Solid ありがとうございます。私が聞いているのは、計算方法の部分です。 第3成分は第1成分と第2成分の両方に直行しているなら、第3成分の方向は、一義的に決まるはず。 では、第4成分を考えると、全部に直行とは、いったい何だろうかと悩んでいたのです。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
なるほど! データの種類が N 個あれば、これらのデータは N 次元空間にあると考えられます。 なので、 N > 3 であれば、4つ目以降の主成分を考えることができます。 いかがでしょうか? 主成分の計算方法を見直してみると、理解が深まるかもしれません。
@ゆうき福沢
@ゆうき福沢 11 ай бұрын
すてき!!
@AIcia_Solid
@AIcia_Solid 11 ай бұрын
でしょ!🤩 ありがとうございます!(^o^)/
@ikura18
@ikura18 3 жыл бұрын
Thank you for great videos! These content really helps me understand data analysis. I have a question 🙋‍♂️ (If you like and have a time, please give me some hint : ) otherwise please ignore me!) In the video of comparison between factor analysis and pca, it was said that FA aims to identifying more essential but hidden factor(it sounds like it’s more exploratory)and PCA aim to compress num of featured without losing information as much as possible. (It sounds like it’s for calculation efficiency) I’m wondering if it’s fine to guess what the components of “PCA” mean here. I thought they are just results of mathematics process and it doesn’t have any meaning theoretically. (I understand the process and result are very similar here so we might be able to get some insight though)
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
Thank you for your watching and comment! Your understanding is perfect 😍 And your question is really essential, so I need time to answer 🙇‍♂️ In my current knowledge, I think it's good to think that the components of PCA is just a mathematical result. (Of course, they can be understood as an intermediate representation of linear auto-encoder as I said in the previous video, but I think this is not your point.) However, I'm not sure since PCA only involves linear algebra thus is simple, so there might be some beautiful meanings. So, if you find such explanation, I'm happy if you let me know. Thank you!!🎉
@ikura18
@ikura18 3 жыл бұрын
@@AIcia_Solid wow! Thank you so much for very kind and detailed comment! I see. That makes sense. If I can find any info regarding your this topic, I will share somewhere in your channel!
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
Thank you so much! If I find, I'll make some comment, too!🎉
@bolte9871
@bolte9871 3 жыл бұрын
masterpieaceニキやんけ…
@nradio8543
@nradio8543 4 жыл бұрын
素人質問ですが以下のような疑問を持ちました。 ・分散の情報量は情報理論で使われるエントロピー情報量とは、まったくの無関係と考えていいのですか?
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
全くの無関係ということはありません。 実際、n変数正規分布の場合、共分散行列が Σ の正規分布のエントロピーは、 (1 + log(2πn det(Σ)))/2 となります。 Σ を、主成分の共分散行列としたら、エントロピー最大化は、動画内の意味の分散最大化と同値になります。 細かい計算は、自分で試してみてください! (わからなかったらまた聞いてください!)
@nradio8543
@nradio8543 4 жыл бұрын
@@AIcia_Solid 少し考えてみたんですが、具体的にどういう計算でしょうか? 一応、簡単のためn=1として考えてみました。この時、z=wxとなると思います。 『正規分布の場合』という文言は、『zが正規分布に従う場合』と解釈しました。 そうすると、出てくる情報量エントロピーHは多分以下式の様になるんだと思います。 H=(1+log2πw)/2 ① また、zは正規分布に従うため、以下のような確率分布に従うものと考えました。 f(z)=1/(2πσ^2)^(1/2) exp(-(z-μ)^2/2σ^2) です。 ここでμ,σはzの平均及び分散です。 データから計算する場合、以下の様に計算するんだと思いました。 μ=mean(z)=w*mean(x) σ=std(z)=w*std(x) ここから情報量Hを計算するなら以下式の様になると思いました。 H=-∫_-∞^∞ f(z)*log(f(z))dz ➁ アリスさんの主張は➁=①となるってことだと思ったんですがあってますか? (➁の計算はやりたくなさ過ぎてやってません。) お門違いの計算をしていたらごめんなさい。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ええっと、、、! xがN変数正規分布に従うと仮定します。 w を N 次元ベクトルとし、 確率変数 z = w・x を考えます。 分散最大化は、 V = V[z] の最大化になります。 z のエントロピー S の最大化も、 S = (1 + log(2πV))/2 の最大化なので、結局 V の最大化になります。 つまり、分散最大化も、エントロピー最大化も、同じ結論を与える(同値)です。 こんな感じです! 前のはかなりはしょってたので、伝わらなかったかもです。 これでいかがでしょう? (ちなみに私はアイシアです😋)
@nradio8543
@nradio8543 4 жыл бұрын
@@AIcia_Solid アイシアさん回答ありがとうございます。 wじゃなくて分散ですね。 一日置いてから見てみて、分散行列と係数行列を勘違いしてました。 S = (1 + log(2πV))/2 がどう導出されるか分かりませんでした。 しかし、ここに導出があり、アイシアさんの回答と合わせてどのように計算するか理解できました。 ありがとうございました。 S = (1 + log(2πV))/2の導出↓ qiita.com/kzkadc/items/40376e2f5b2419e0e152
@mengyuge3369
@mengyuge3369 4 жыл бұрын
君日本语本当上手
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
でしょ😋
@kayuta2906
@kayuta2906 3 ай бұрын
面白すぎて草
@AIcia_Solid
@AIcia_Solid 3 ай бұрын
でしょ😎🌿
@akhori638
@akhori638 4 жыл бұрын
もっと深く勉強したい人向けに参考書を幾つか紹介して下さい。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
たしかに、参考書、必要ですね、、! 見つかったらまたここに記載します! ありがとうございます🎉
@nahsan4783
@nahsan4783 4 жыл бұрын
途中、足の違和感に気づいてからPCAの解説が理解できなくなったわw
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
😱😱😱😱😱
@usar-xx1uk4pp9h
@usar-xx1uk4pp9h 3 жыл бұрын
似たもん調べてもおもんないからいっそ 全然違う奇抜なデータ引っこ抜こうかー ってことか
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
奇抜かどうかは分かりませんが、いい感じに要約するかんじの手法です😊
@JY_STATS
@JY_STATS 4 жыл бұрын
レシオな
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
たしかに😮 ありがとうございます😋
ЛУЧШИЙ ФОКУС + секрет! #shorts
00:12
Роман Magic
Рет қаралды 24 МЛН
СОБАКА ВЕРНУЛА ТАБАЛАПКИ😱#shorts
00:25
INNA SERG
Рет қаралды 2,3 МЛН
the balloon deflated while it was flying #tiktok
00:19
Анастасия Тарасова
Рет қаралды 35 МЛН
主成分分析(PCA)の気持ち
35:09
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 52 М.
Are you Bayesian or Frequentist?
7:03
Cassie Kozyrkov
Рет қаралды 257 М.
【10分で分かる】多変量解析の様々な手法を簡単に見ていこう!
9:23
スタビジ【誰でもAIデータサイエンス】byウマたん
Рет қаралды 47 М.
ЛУЧШИЙ ФОКУС + секрет! #shorts
00:12
Роман Magic
Рет қаралды 24 МЛН