Пікірлер
@dango5744
@dango5744 3 күн бұрын
U^-1bが成分抽出だというのはわかってましたが、まさかa^tU側も成分抽出だったなんて………!!転置が隠れてたんだなぁ。 数式が生き生きと踊って見えます。ありがたや。
@AIcia_Solid
@AIcia_Solid 2 күн бұрын
ご視聴コメントありがとうございます! そう! なん! です!!!!! この感覚が共有できてめちゃ嬉しいです!!!🥳
@dango5744
@dango5744 3 күн бұрын
後の回を見た後だと、u_iをかけるパターンも、幾何的な説明もわかるからニヤリですね😎
@AIcia_Solid
@AIcia_Solid 2 күн бұрын
ご視聴コメントありがとうございます! そう言っていただけると本当に嬉しいです!!! この見方、本当にいいですよね!!!!! 是非色んな人に伝えていただけると嬉しいです 😊
@dango5744
@dango5744 3 күн бұрын
「直行したやつらの和」が気になりますね… 二次関数を対称行列Aの二次形式で書いたあとに、Aを対角化したものがUΛU^-1でかけて、ベクトルxをU^-1で成分抽出したやつらが直行してるのかな。
@AIcia_Solid
@AIcia_Solid 2 күн бұрын
ご視聴コメントありがとうございます! 「直交したやつらの和」という見方は、第22回の証明回にて扱っているので、興味があれば是非見てみてください! kzbin.info/www/bejne/qX2knoBqbbdlZs0
@dango5744
@dango5744 2 күн бұрын
ありがとうございます!もうそろそろそこまで辿りつけるかなと思います🤭
@dango5744
@dango5744 3 күн бұрын
KLDivergence「いつから関係は常に対称だと錯覚していた?」
@AIcia_Solid
@AIcia_Solid 2 күн бұрын
確かに! ですが、実は、、、😎 KL-divergence の微分で定義できる Fisher 情報量行列は、実は対称になったりします。これも面白い性質ですので、いつか見かけたら勉強してみてください ✌️
@dango5744
@dango5744 2 күн бұрын
なん…だと…😨 フィッシャー情報量さんと和解できてなかったのですが、お陰様で和解できそうです!たくさん返信させてしまってすいませんが、とても勉強になっております😭
@dango5744
@dango5744 3 күн бұрын
cos類似度を使ったDLの学習は相関を上げていた………!
@AIcia_Solid
@AIcia_Solid 2 күн бұрын
実はちょっとだけ違うのですが、かなり似た感じで理解できます!!! (共分散のための内積は、各次元が1つ1つのデータなのですが、 DL での内積は、1つのベクトルで1つのデータなので!)
@dango5744
@dango5744 2 күн бұрын
うおー、教えていただいてありがとうございます😭 理解しました!
@リューシス
@リューシス 3 күн бұрын
いつかMIDIデータなどの音楽の機械学習を取り上げていただけたら見てみたいです。
@AIcia_Solid
@AIcia_Solid 2 күн бұрын
ご視聴コメントありがとうございます! 確かに! 音声系の分析も面白そうですね! だいぶ先にはなりそうですが、いつか扱いたいと思います、ありがとうございます! (たぶん、2028年よりは先になるかと思います 🙇‍♀️)
@dango5744
@dango5744 4 күн бұрын
いやーありがたいです。教科書で二次形式見ると、見た目的にベクトルになるのか行列になるのか…あー、色々計算するとスカラーになるじゃん!ってなる初心者だったのですが、これから二次形式見たら、変換して類似度測ってるのね、はいはい…と思えるようになりそうです。
@AIcia_Solid
@AIcia_Solid 4 күн бұрын
ご視聴コメントありがとうございます! こちらも、たくさん見たあとに見ると、また味わい深いと思います🤤 この用法は、データ分析でよく見ますし、多変量解析では特によく見かけます! ぜひ今後の読み解きの参考にしていただければ嬉しいです!🎉🎉🎉🎉🎉
@dango5744
@dango5744 4 күн бұрын
行列33回を見てからこっち見てますが、色々繋がって感動がすごい。 そして直行行列の偉さも分かりますね。
@AIcia_Solid
@AIcia_Solid 4 күн бұрын
ご視聴コメントありがとうございます!!!!! 過去の動画に遡ってみて頂いて、とても素敵だと思います!!! 理想的な動画の使い方をされていて、私としても本当に嬉しいです😭😭😭 深い理解をされていると思います! こう見るとほんとに楽しいですよね! この感覚を共有できてとても嬉しいです!🎉
@dango5744
@dango5744 4 күн бұрын
26回と同じロジックだ!分かるぞ!と思ってたら幾何学的な説明が出てきてお得でした。 u_iによる成分抽出をしてるんだ、という言葉の直観的な意味が分かるようになりました。 ベクトルをある正規直交基底Uで表現する時の1つの基底ベクトルの長さの倍率を測る操作が成分抽出であり、内積なんですね。
@AIcia_Solid
@AIcia_Solid 4 күн бұрын
ご視聴コメントありがとうございます!!! まさに!!! そう感じていただければ嬉しいです!!!!!🎉🎉🎉 幾何的な見方をゲットできると、いろいろかなり分かりやすくなると思うので、 いろんな場面で幾何的な見方をぜひ検討してみてください🥳🥳🥳
@dango5744
@dango5744 4 күн бұрын
m×nの関係性の計算がn個の計算で済むのは計算量めちゃ減る…すごい…
@AIcia_Solid
@AIcia_Solid 4 күн бұрын
ご視聴コメントありがとうございます!!! そうなんです!!!!!🎉 こっちの見方で見ると、ほんとに色々スッキリしますよね🎉 ぜひいつか使ってみてください!✌️
@dango5744
@dango5744 4 күн бұрын
何度も聞いてた勾配消失の問題の背後に特異値分解(というか特異値の確率分布)が関係してた………!
@AIcia_Solid
@AIcia_Solid 4 күн бұрын
ご視聴コメントありがとうございます! そうなんです!!! これほんとに面白いですよね!!!!!🎉🎉🎉🎉🎉 なので、紹介させていただきました✌️
@dango5744
@dango5744 4 күн бұрын
この講座で何となく見てたUと、いつも使ってた回転行列が実は同じものっていう衝撃がすごい。
@AIcia_Solid
@AIcia_Solid 4 күн бұрын
ご視聴コメントありがとうございます!!🎉 この動画は、私の動画シリーズらしく、数式の本質に踏み込んだ動画でございます。 楽しんでいただけて本当に嬉しいです!🥳
@dango5744
@dango5744 4 күн бұрын
あん肝の味した…!と思いきや、少しモヤモヤ。ベクトルを正規直交基底の重みつき和で表示するときに、逆行列の計算が内積の計算に置き換わるのは凄い。でも特異値分解の適用範囲が分からなかった。きっと次の動画以降で分かるんでしょうね! フーリエ級数の話との関係は絶対ものすごく深い理論的なつながりがあるんだろうな、と感じました。 (cos関数と関数同士の直行性の話から実はフーリエ変換と特異値分解は同じことしてる的な?よくわかりませんが) 今回も楽しすぎる動画ありがとうございました!
@AIcia_Solid
@AIcia_Solid 4 күн бұрын
ご視聴コメントありがとうございます! たくさん楽しんでいただけて嬉しいです!🎉 今回の話は、特異値分解そのものより、その周辺にある直交行列の活用法なので、dango5744 さんの理解で正しいと思います! ちなみに、Fourier 級数は、無限次元空間での"微分"の対角化と理解できたりします。 実は、微分が対称行列的な感じなので、対角化でうまく扱えるんです😊 もし興味があれば、Fourier まわりを、この視点を持ちながら学んでみると何かわかるかもしれません!✌️
@dango5744
@dango5744 3 күн бұрын
なるほど、直行行列凄い!でよかったのですね!丁寧にコメントいただきありがとうございます。 無限次元空間の微分の対角化…🤯 すごく面白そうです! ハマっちゃいます🥺
@AIcia_Solid
@AIcia_Solid 3 күн бұрын
そうなんです! 素敵な理解だと思いました!🎉 無限次元の線形代数も面白いですよー!🤤 対称行列が何かすらよくわかんなくなったり、なんか普通の線形写像なのに連続じゃなくなったり、なかなかワイルドでよいですよ🤤✌️
@dango5744
@dango5744 4 күн бұрын
どんな意味であん肝みたいな美味しい味がするのか、期待しかないです! 高次元の行列とベクトルの積で計算量がグッと小さくなったりとかするのかな…
@AIcia_Solid
@AIcia_Solid 4 күн бұрын
ご視聴コメントありがとうございます! 続く動画も見て頂きありがとうございます! どこかであんきもの味わいを感じていただけていたら幸いです😊 どうだったでしょうか?✌️
@RK-ee5ck
@RK-ee5ck 4 күн бұрын
黒字化おめでとうございます!ファンコミュニティは参加していませんが、紙版は持っていましたが電子版(分析モデル入門)も数日前のセールで購入しました。知人友人にも勧めています。これからも頑張ってください。
@AIcia_Solid
@AIcia_Solid 4 күн бұрын
ご視聴コメントありがとうございます!!! まだ、一部人件費を見なかったことにしているので、完全な黒字ではないのですが、、、 かなりやりやすくなりました!!! コミュニティで支援してくださる方には直接的に本当に助かっていますが、 こうやって見ていただいて、楽しんでいただけることが最大の活力になっています!! 書籍もご購入いただきありがとうございます! 今後も色々出していきますので、ぜひお楽しみいただけると嬉しいです!🎉
@dango5744
@dango5744 4 күн бұрын
色々自分の線形代数の理解が甘かったところがどんどん進化していきます。 本を読むよりかなり分かりやすく説明して下さってるので大感謝です。
@AIcia_Solid
@AIcia_Solid 4 күн бұрын
ご視聴コメントありがとうございます! 他の動画もたくさん見て頂いて嬉しいです!🥳 そしてなにより、ご支援いただきありがとうございます!!! とても助かります!!!!! いただいた支援を活力に、今後も良い動画を生成してまいりますので、是非楽しんでいただければ嬉しいです。 よろしくお願いします!!!
@dango5744
@dango5744 5 күн бұрын
途中回みてないから、世界って何だ…怖い…難しい世界に来てしまった…って思って聴いてたら税金の話からめっちゃわかりやすくなってありがたかった
@AIcia_Solid
@AIcia_Solid 5 күн бұрын
ご視聴コメントありがとうございます! やはり、ここから見ると大変ですよね、、、🤯🤯🤯 一応、ここから見始めてもいけるようには設計したつもりなので、そのまま見ていただけると嬉しいです! もし何かわからないことがありましたら、遠慮なくコメントいただければと思います!🎉
@gesonanko6356
@gesonanko6356 7 күн бұрын
やっと深層強化学習が来た〜! 楽しみにしています!
@AIcia_Solid
@AIcia_Solid 6 күн бұрын
ついに来ました! ここからやっていきます! 次回は方策勾配法です🥳
@morth1
@morth1 10 күн бұрын
Huh, youtube can auto-dub videos like this now. It's surprisingly understandable. Interesting
@AIcia_Solid
@AIcia_Solid 6 күн бұрын
Thank you for your watching and comment!!🎉 I'm also the one who are exicted about the new translation feature! I'm happy if you can get something from my video🥳 If you are interested in, please watch other videos, thank you!
@initff_4457
@initff_4457 10 күн бұрын
動画楽しみにしています。本当に個人的な関心ですが、ゆくゆくは展開型ゲームのナッシュ均衡の近似手法を取り上げてほしいなぁと思っています。いわば最善手であるナッシュ均衡に自己対戦で収束させるというのは、ただ単に収益最大化を目指して学習するよりよっぽど有益みたいです。最強麻雀AIのLuckyJもActor-Critic Hedgeというアルゴリズムでナッシュ均衡を利用していますね。
@AIcia_Solid
@AIcia_Solid 6 күн бұрын
ご視聴コメントありがとうございます! なるほど、そうなのですね、ありがとうございます。勉強になります! 麻雀の AI の場合、すべての情報が見えているわけではない上、ランダム要素も強いので、そこが難しそうですね🔥 そちらのサーベイもしつつ、時が来たらやってみたいと思います。ありがとうございます!!!
@HhhHhh-y2j
@HhhHhh-y2j 10 күн бұрын
解説ありがとうございました。非常にわかりやすかったです。Multi Head Attentionについての質問なのですが、Queryとの類似度計算の際に直接QueryとValueの類似度計算を直接行わず、まずQueryとKeyの類似度計算を行っているのはなにか理由があるのでしょうか?
@AIcia_Solid
@AIcia_Solid 6 күн бұрын
ご視聴コメントありがとうございます! いい観点ですね! query と value を直接比較する場合、query に似た value が出力に用いられることになります。 ですが、それだと、入力の query と出力が似通ってしまいますし、なにより、重要な情報が query に似通った value であるとは限りません。 そのため、まず、query と key の比較を通して注目するべき token を発見し、その token の value を利用して出力にしているのだと思います。 いかがでしょうか? もし疑問が残るようでしたら、遠慮なく追加でご質問ください!
@starsugamo8613
@starsugamo8613 12 күн бұрын
脳の非線形性の獲得は生命の発展において必要不可欠なものですね
@AIcia_Solid
@AIcia_Solid 11 күн бұрын
ご視聴コメントありがとうございます! そうなんですね🤯 お教えいただきありがとうございます😊
@Dkenzo1122
@Dkenzo1122 12 күн бұрын
選んだ道をどう生きるか、いいですね。 聞いてみたいのですが、欲や物など何か捨てると決断して良かったことはありますか?
@AIcia_Solid
@AIcia_Solid 11 күн бұрын
ご視聴コメントありがとうございます! そういう系の話は、こちらに良くまとめているので、良さそうなものをみて探していただければ良いかなと思います! sizu.me/aicia_solid
@KeiHeavyMetal
@KeiHeavyMetal 12 күн бұрын
分かりやすい説明ありがとうございました。平行移動に対する頑健性の理屈に興味があり、事例の26x26に対してカーネル?サイズ13x13だと確かに頑健だと思いますが、 max poolingは2x2で使われることが多いように見受けます。その場合は頑健性はほとんど発揮できないように見えるのですが、実際はそんなことはないのだと 思います。それはどのような仕組みで実現されているのでしょうか?多分、多層化することで実現できているのだと推測しますが、いまいちイメージできません。 解説頂けるとありがたいです。
@AIcia_Solid
@AIcia_Solid 12 күн бұрын
ご視聴コメントありがとうございます! 素敵な疑問ですね!!! たしかに 2x2 Max Pooling 単体ではそんなに頑健性がないですが、 おっしゃるとおり層を重ねる中でなんども Max Pooling を利用することになります。 その積み重ねで、全体としての頑健性が得られるのだと思います! (本当に確定的に物を言うには、それを検証する実験が必要ですが、大まかな理解としては間違っていないと思います!)
@KeiHeavyMetal
@KeiHeavyMetal 12 күн бұрын
@@AIcia_Solid ありがとうございます。勉強になる動画が多そうなのでこれからいろいろ拝見していこうと思います。
@AIcia_Solid
@AIcia_Solid 11 күн бұрын
ぜひぜひ! たくさん楽しんでいただければ嬉しいです🥳 深層学習はプレイリストにもまとめているので、そちらもどうぞ! kzbin.info/aero/PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP&si=dWZhi5ZsO8o3qd_l
@user-kj2ok7bj2e
@user-kj2ok7bj2e 12 күн бұрын
ついに来た❗️ ありがとうございます❗️
@AIcia_Solid
@AIcia_Solid 12 күн бұрын
お待たせしました! ついに来た!!!🤩
@Nezumi-g1u
@Nezumi-g1u 12 күн бұрын
いつもわかりやすい解説ありがとうございます。模倣学習、逆強化学習、オフライン強化学習、興味あります。
@AIcia_Solid
@AIcia_Solid 12 күн бұрын
ご視聴コメントありがとうございます! ですよね!!!!! わかります、私も興味あります、、、🤤 いずれやりますので、今しばらくお待ち下さい!🙇‍♀️🙇‍♀️🙇‍♀️🥳
@RinoaHeartilly-jh3ci
@RinoaHeartilly-jh3ci 14 күн бұрын
哲学やってるものです。 ベルクソンという哲学者が、「記憶の逆円錐」と呼ばれる円錐型を考えていて、ドゥルーズという哲学者が、ベルクソンの註解として円錐曲線と無限遠点を提唱しています。 この動画の無限概念に、感動です。
@AIcia_Solid
@AIcia_Solid 12 күн бұрын
ご視聴コメントありがとうございます。 哲学の世界にもそのような議論があるのですね!!! 知りませんでした、勉強になります! 面白そうですね!!! お教えいただきありがとうございます!🥳 私も、この素敵な出会いに感謝です😊
@ふかずちゃんfukazu
@ふかずちゃんfukazu 16 күн бұрын
統計検定準1級で必要な線形代数を求めてたどり着いたのですが、計算だけでなく意味がわかって感激です!これからも楽しく視聴したいと思います✨
@AIcia_Solid
@AIcia_Solid 15 күн бұрын
ご視聴コメントありがとうございます!🥳 そう言っていただけると嬉しいです🎉 ぜひこの理解をご活用ください!🎉🎉🎉
@yato3345
@yato3345 16 күн бұрын
機械学習について解説する点において、aiciaとchatGPTはどちらが優秀ですか?僕は前者だと思うのですが
@AIcia_Solid
@AIcia_Solid 15 күн бұрын
一つ一つについてはまだまだ私のほうが良いと思いますが、私の知識も有限ですし、いつでも返答できるわけでもないので、そういう点では ChatGPT などの LLM サービスに軍配が上がるかなと思います。 早く私くらいの解説も出してくれるといいなーと思います😋
@yato3345
@yato3345 17 күн бұрын
素人です。どうでもいい質問です。vec2seqとかの2ってなんですか?vec-seqでもよくないですかね?
@AIcia_Solid
@AIcia_Solid 16 күн бұрын
ご視聴コメントありがとうございます! 2 は、to の代わりに置かれています。 vec2seq の行う変換が、ベクトルから列へ、つまり、from vector to sequence なので、この to だけ 2 にして残して vec2seq と書かれています。 2があったほうが、何から何への変換なのかが明確なので、私としてはある方が好みです😊
@yoshihirokimura9575
@yoshihirokimura9575 17 күн бұрын
ベクトルaの長さの2乗 ||a||^2 が a'*a で表されることを用いると、以下のように簡潔に証明することも出来ます。 ||x||^2 = x' * x (上述の性質より) ||U*x||^2 = (U*x)' * (U*x) (上述の性質より)     = (x' * U') * (U*x) (転置行列の性質より)     = x' * (U' * U) * x (行列のかけ算は、途中から先に計算しても良いので(結合法則))     = x' * E * x (Uは直交行列なので、U'*U は単位行列 E になる)     = x' * x (E*x は x と等しいので) この2つが等しく、ベクトルの長さは正なので、||U*x||=||x||が示された。 ※行列aの転置を a' で表します。  行列のかけ算を「*」を用いて表します。  ベクトルは、すべて(n,1)の行列であると見なしています。
@AIcia_Solid
@AIcia_Solid 16 күн бұрын
ご視聴コメントありがとうございます! はい、まさに、その方が完結で良いと思います! 一方、こちらを分かりやすいと感じるためには、抽象数学の素地が必要と思いましたので、動画ではあえて直接的な方法を利用してみました。 他にも、より簡明な方法など見つけた際は教えていただけると嬉しいです!(^o^) (単に私が知らないことも多いので!)
@narfidort
@narfidort 18 күн бұрын
分かりやすいe_iの行き先と対比されると急に分かりやすい
@AIcia_Solid
@AIcia_Solid 17 күн бұрын
ご視聴コメントありがとうございます!🥳 でしょ! ぜひこの理解をご活用くださいませ🎉
@yato3345
@yato3345 20 күн бұрын
1:20 x = (x1,…,x784)のイコールの右上にあるtみたいなのはなんですか?
@AIcia_Solid
@AIcia_Solid 20 күн бұрын
ご視聴コメントありがとうございます! それは行列(ベクトル)の転置で、縦と横を逆にする操作を表す記号です!
@かわゆ-o5b
@かわゆ-o5b 20 күн бұрын
動画ありがとうございます。 1✖️1のconvがわからないです。 チャネル方向に見ようとしてるのは伝わってきてはいるのですが、convの定義がよくわかりません。 vol5の講義を見るに 1✖️1のconvで(ストライド1とすると) 画像サイズは変わらないものができる →特徴量の変わらない画像のままで何も変化が起きないように思います。 1✖️1のconvを扱っているものが 同一チャネルの画像に大してではなく、 異なるチャネルの同じ位置に対して計算をしているのだろうとは思うのですが、使い分けがわかりません。 どの動画をみればわかりますか?
@AIcia_Solid
@AIcia_Solid 20 күн бұрын
ご視聴コメントありがとうございます! ご指摘のとおり、ここはやや分かりづらいかもしれませんね、、、! vol. 5 では、channel についてあまり説明していませんでした。 入力に channel が複数ある場合、たとえば W x H x C (weight, height, channel) の場合、n x n conv. の1枚の filter のパラメーターは n x n x C だけあり、チャネル方向にも内積を取っています。 そして、それが出力チャネル C' 枚だけあり、パラメーターの総数は n x n x C x C' だけあります。 なので、1x1 conv. の場合は、1枚の filter が 1 x 1 x C だけパラメーターがあり、チャネル方向の情報をまとめて処理する効果があります。 このあたりは、普通に web にある畳み込みの資料をみるのがわかりやすいかもしれません! まだ疑問があれば、遠慮なくお聞きください!
@小野賢一郎
@小野賢一郎 21 күн бұрын
活動を継続していただきありがとうございます。ここまで強化学習の動画を続けられるとは驚きです。感謝を込めて、ささやかながらのお年玉をお送りいたします。
@AIcia_Solid
@AIcia_Solid 21 күн бұрын
小野さん! ご支援いただきありがとうございます!!!🎍🍊 とても助かります!!!!!🥳 いつも応援いただき本当に嬉しいです。 いただいた支援のそのお気持ちを元に、また今年も良い動画を生成できるよう頑張ります! ぜひ本年もよろしくお願いします!!
@bura5577
@bura5577 22 күн бұрын
面白かったです。行動経済学は、経済学が措定している合理性を厳密化するところと、丁寧に厳密に不合理を取り込むことにありますよね(人間なんて不合理なものと捉えず、原則と例外、あるいは相互作用するものとして捉える)。
@AIcia_Solid
@AIcia_Solid 22 күн бұрын
ご視聴コメントありがとうございます! 行動経済学は初めて勉強しましたが、まさにそんな感じなんですね! 面白い学問だなと思いました!!!
@もりただ-g2u
@もりただ-g2u 24 күн бұрын
文系で数学で0点しかとったことない者です。わかりやすすぎてびっくりしていて、今のところ楽しみながら拝見しています。本当にわかりやすく楽しませてくれる動画を有難う御座います。
@AIcia_Solid
@AIcia_Solid 24 күн бұрын
ご視聴コメントありがとうございます!! そう言っていただければ嬉しいです😊😊😊 是非続きもお楽しみいただければ嬉しいです!🎉
@fuemma--7122
@fuemma--7122 26 күн бұрын
今までで一番分かりやすかったです
@AIcia_Solid
@AIcia_Solid 25 күн бұрын
ご視聴コメントありがとうございます! そう言っていただけるととても嬉しいです🥳 ぜひこの理解をご活用板出せると嬉しいです!🎉
@LiberHedvige
@LiberHedvige 26 күн бұрын
詳細な分析をありがとうございます! ちょっとした質問があります: USDTを含むSafePalウォレットを持っていて、シードフレーズを持っています. (alarm fetch churn bridge exercise tape speak race clerk couch crater letter). Binanceにそれらを転送するにはどうすればよいですか?
@AIcia_Solid
@AIcia_Solid 25 күн бұрын
すみません、そのテーマについては詳しくありません。そのため、お答えできません。 また、そもそも、質問の内容は本動画のテーマとかなり離れているような気がします。 動画と関連したテーマの質問については誠心誠意お答えさせていただきますが、そうでないものには必ずしもお答えできません。 ご理解いただけますと助かります。よろしくお願いします。
@Nezumi-g1u
@Nezumi-g1u 27 күн бұрын
わかりやすい説明ありがとうございます。質問ですが、後方観測TDλは、価値関数に即時適用できるとのことですが、価値関数Vが方策依存のとき問題ないのでしょうか?
@AIcia_Solid
@AIcia_Solid 25 күн бұрын
ご視聴コメントありがとうございます! 一般的には、価値関数は方策に依存します。ですが、そこはあまり問題になりません! 動画の最初の板書に図があると思います。 あの図のとおり、V の更新と方策 π の更新とデータ収集をぐるぐると繰り返す、Generalied Policy Iteration で学習すれば、V の精度がどんどん上がり、方策 π もどんどん良くなり、学習が進んでいきます。 実際には、V の更新タイミングと π の更新タイミングは必ずしも一致しないので、その瞬間瞬間で不整合は生じると思われますが、 結局学習はうまく進んでいくので、(基本的には)問題になりません。 これで回答になっているでしょうか? なお疑問が残る場合、またぜひ質問してください!
@青野俊夫-y7q
@青野俊夫-y7q 27 күн бұрын
興味深い対談ありがとうございました。ソシムの本を早速手配、一読しました。 1) 行動経済学を「人間行動の非合理性だけを説くトンデモ経済学」と永らく誤解していましたが、考えを改めました。 「予測可能なズレをモデルに組み込む」ー当たり前のことですが、目から鱗です。 理想気体(PV=RT)に2つのズレ P'=P-a/V^2(分子間引力), V'=V-b(排除体積) を組み込んで、 実在気体を説明するファン・デル・ワールス状態方程式 のようなもの。 と勝手に類推しました。 2) 保有効果は、ゲーム理論のブルジョワ戦略と関係しているように思え、その意味で合理的選択に思えました。 ハト/タカゲームで所有者の場合は強気(タカ)、非所有では弱気(ハト)となるブルジョワは戦略としてタカ,ハトに勝り、 進化論的に選択されます。 とすると、保有効果は合理性からのズレでなく、合理性そのもの、のように思えてきます。 現実は、現実である以上、合理的なものであり、第0近似理論で説明できないだけ。 以上、勝手な妄想2件ですが、楽しい時間となりました。
@AIcia_Solid
@AIcia_Solid 27 күн бұрын
ご視聴コメントありがとうございます! この配信をきっかけに書籍を手にとっていただき嬉しいです! 青野さんにとって何か発見のきっかけになっていれば嬉しいです! 私は非常に勉強になりました!ありがとうございます!!
@青野俊夫-y7q
@青野俊夫-y7q 27 күн бұрын
@@AIcia_Solid 良書の紹介ありがとうございました。シリーズの次も期待です!
@fuemma--7122
@fuemma--7122 28 күн бұрын
サプーさんとのコラボからきました😆 わわ💦めちゃめちゃ高度で尊敬します
@AIcia_Solid
@AIcia_Solid 27 күн бұрын
ご視聴コメントありがとうございます!! サプーさんから! ご覧いただきありがとうございます😊 いろんなバラエティの動画がありますので、興味あるものがあれば挑戦してみて頂けると嬉しいです!🎉
@Akukekeke
@Akukekeke 29 күн бұрын
関係の強さ…?ってなりましたけど、2次形式と言われてああ!ってなりました(定義見たらなんとなく分かった) この動画から見始めたのであれですけど、とても分かりやすいなと思いました!特異値分解だけやったことがないので、それさえ復習すれば完全に理解できそうです…!(固有化を任意のベクトル成分に拡張したものなのかなとは動画見てて思いました)
@AIcia_Solid
@AIcia_Solid 29 күн бұрын
ご視聴コメントありがとうございます!🥳 はい、2次形式のことです😊 そのあたりは、vol. 9-11 あたりでデータ分析での意味合い含めて話してるので、もしご興味ありましたら! kzbin.info/www/bejne/iqPIq4CcYpKYp5Ysi=7s9hKQFc_gMGOUty kzbin.info/www/bejne/a5rNZ52OottgnaMsi=HRjr0WlUrm1UPC8j kzbin.info/www/bejne/m2eUYWtvjNCir5Isi=EipVPC6yo66f3yH3 特異値分解の変換への活用は vol. 24 からもありますので、気が向きましたらそちらもぜひ😋
@アヒージョ-y3j
@アヒージョ-y3j Ай бұрын
卒論でわからない分野だったので、解説が腑に落ちることが多く、納得して聴いていたら、いつの間にか動画が終わっていました。本当に良い講義をしてくれてありがとうございました!次回のも拝見します!
@AIcia_Solid
@AIcia_Solid 29 күн бұрын
ご視聴コメントありがとうございます! そう言っていただけると嬉しいです! ぜひこの理解をご活用いただけると嬉しいです🥳
@n-mtu
@n-mtu Ай бұрын
黒川先生、いい人だ..... 経済学的な意思決定モデル×データ分析って、データサイエンティスト向けにはそんなにないので(因果推論系は多いけど)、良書の予感。意思決定モデルを明示的に考慮することで、恣意的な解釈を防ぐこともできるのでいいよね
@AIcia_Solid
@AIcia_Solid 29 күн бұрын
ご視聴コメントありがとうございます! いい本でしたよ〜😎 とても勉強になりましたので、ぜひお手にとって見てみて頂ければうれしいです!
@s009kawa
@s009kawa Ай бұрын
熱力学ver2まで出てきたらいよいよ第二の産業革命ですね
@AIcia_Solid
@AIcia_Solid 29 күн бұрын
ご視聴コメントありがとうございます! 初回の産業革命もかなり熱力学でしたからね! 今回の場合の研究も楽しみです🥳🥳🥳
@小野堀
@小野堀 Ай бұрын
行動〇〇って、下手するとどんな事象も説明できてしまう(つまり予測に役立たない)から、そうならぬよういかにベンチマークをしっかり作るか・そしてそこからの逸脱をいかにシステマティックに定義するかが勝負と思うんだけど、それって現状ではどうしても職人技なところが要るんだよな。
@AIcia_Solid
@AIcia_Solid 29 күн бұрын
ご視聴コメントありがとうございます! そうなんですね👀 それも中々深い仕事がありそうですね。ありがとうございます!勉強になりました!
@梅津龍之助
@梅津龍之助 Ай бұрын
初見です。数学なのになぜ数字がほぼないのでしょうか。記号がありすぎてまるで異世界の言語に触れているようです。この学問に携わっている方を尊敬します。
@AIcia_Solid
@AIcia_Solid 29 күн бұрын
ご視聴コメントありがとうございます! 大学以降の数学は、いろんな数値に対して適用できる普遍的な理論を学ぶので、数字そのものは出なくなる傾向にあります。 そういう変化も含めて、楽しんでいただければ嬉しいです!🎉
@ll4762
@ll4762 Ай бұрын
24:59 0 <= P(Y|X) <= 1, Log P < 0. だから長い文章は不利ですね?
@AIcia_Solid
@AIcia_Solid Ай бұрын
ご視聴コメントありがとうございます。 はい、そのとおりです!
@dccmnmn
@dccmnmn Ай бұрын
トマス ミコロフ を理解できません。 word2vec は [Google が開発した自然言語処理システム] です。 一方、 fasttext は [Facebook が開発した自然言語処理システム] です。 両方に同じ名前があるって、 どういう事ですか? [Nintendo Switch と PlayStation の両方の開発者に宮本茂と書かれている] と言っているようなものです。 ありえません。 同姓同名の間違いでは?
@AIcia_Solid
@AIcia_Solid Ай бұрын
ご視聴コメントありがとうございます! 論文を確認しましたが、やはり双方に Tomas Mikolov さんは著者として名を連ねています。 私はこのあたりのことは詳しくないですが、技術者の転職はよくあることなので、この間に転職されたということではないでしょうか?