KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
Жазылу
AIcia Solid Project
データサイエンスVtuber アイシア=ソリッド(Aicia Solid)です。
機械学習、統計、ディープラーニング、AIの動画に加えて、たまに趣味で数学の動画をアップしています。
公式サイトはこちら → sites.google.com/view/aicia-official/top
ファンコミュニティはこちら → community.camp-fire.jp/projects/view/709000
(ファンコミュニティ始めた理由の動画 → kzbin.info/www/bejne/rIm8ZGekn9x_atE )
動画の質問、感想等ございましたら、コメント欄やTwitterにどうぞ!
お仕事、コラボのご依頼は、公式サイトの Contact か Twitter の DM からお願い致します。
Twitter: twitter.com/AIcia_Solid/
Editor: AIris Solid (妹) twitter.com/AIris_Solid/
Logo: TEICAさん twitter.com/T_E_I_C_A
Model: 3d.nicovideo.jp/works/td44519
Model by: W01fa さん twitter.com/W01fa
(※ニコニ立体ちゃん公式(株式会社ドワンゴ)とは繋がりのない個人のProjectです。)
18:16
【強化学習】TD(λ) - 短期と長期の目線の合せ技。【強化学習の基礎アルゴリズム】RL vol. 18 #185 #VRアカデミア #ReinforcementLearning
Ай бұрын
19:02
【特異値分解⑦】変換の倍率と特異値 - 直交してるから長さの倍率がわかっちゃう!【行列29 μ_1 ≤ ||Ru|| ≤ μ_1】 #184 #VRアカデミア #線型代数入門
Ай бұрын
10:58
【微積分+線形代数】本を出します! 2nd 【是非買ってね!】 #183 #VRアカデミア #微積分 #線形代数
Ай бұрын
27:31
【強化学習】n-step TD 法 - 一番使われる基礎的手法だよ【強化学習の基礎アルゴリズム】RL vol. 17 #182 #VRアカデミア #ReinforcementLearning
3 ай бұрын
22:35
【特異値分解⑥】直交行列の等長性 - 回転ってこれで定義されてるんです【行列28 ||Ux|| = ||x||】 #181 #VRアカデミア #線型代数入門
4 ай бұрын
13:29
【強化学習】On-policy と Off-policy - 実は定義が曖昧な概念【強化学習の基礎概念】RL vol. 16 #180 #VRアカデミア #ReinforcementLearning
4 ай бұрын
18:46
【特異値分解⑤】R = VΜU^-1 の意味 - 全ては R = VΜU^-1 に書いてある!【行列27 R = VΜU^-1】 #179 #VRアカデミア #線型代数入門
5 ай бұрын
22:52
【強化学習】SARSA - こいつもデータを用いて最適方策を学習!【強化学習の基礎アルゴリズム】RL vol. 15 #178 #VRアカデミア #ReinforcementLearning
5 ай бұрын
22:59
【特異値分解④】一般のベクトルの変換 - それは、内積での成分抽出と特異値倍!【行列26 Ra = Σμi(a・ui)vi】 #177 #VRアカデミア #線型代数入門
6 ай бұрын
34:10
【強化学習】Q学習 - データを用いて最適方策を学習【強化学習の基礎アルゴリズム】RL vol. 14 #176 #VRアカデミア #ReinforcementLearning
6 ай бұрын
23:34
【特異値分解③】特異値分解を計算に応用! - オトナな楽しみ方が求められる数式【行列25 RΣxiui = Σxiμivi】 #175 #VRアカデミア #線型代数入門
7 ай бұрын
37:39
【強化学習】TD法 - 期待と不安が交じるベルマン作用素のデータ近似【強化学習の基礎アルゴリズム】RL vol. 13 #174 #VRアカデミア #ReinforcementLearning
7 ай бұрын
35:41
【特異値分解②】特異値分解 = 対応 + 特異値倍 ← この見方が最高!【行列24 Rui = μivi】 #173 #VRアカデミア #線型代数入門
8 ай бұрын
18:58
【強化学習】価値反復法 - いきなり最適方策を推定!【GPIの元ネタ】RL vol. 12 #172 #VRアカデミア #ReinforcementLearning
8 ай бұрын
16:09
【特異値分解①準備】特異値分解と対角化 - 似てるけど、使う場面が完全に異なるのです!【行列23特異値分解イントロ】 #171 #VRアカデミア #線型代数入門
8 ай бұрын
34:57
【強化学習】方策反復法 - 方策評価と方策更新の繰り返しで最適方策を見つけよう!【GPIの元ネタ】RL vol. 11 #170 #VRアカデミア #ReinforcementLearning
9 ай бұрын
37:20
【線形代数】対称行列の直交行列での対角化の証明 - 2次関数を直交した奴らに分解するよ。幾何と代数と解析全部登場!【行列22証明】 #169 #VRアカデミア #線型代数入門
9 ай бұрын
27:53
【強化学習】ベルマン最適方程式 - 最適方策は収益が最大なのだ【強化学習の基礎方程式②】RL vol. 10 #168 #VRアカデミア #ReinforcementLearning
9 ай бұрын
6:46
【クラウドファンディング】始めるよ!【ご支援よろしくお願いします】#167 #VRアカデミア
10 ай бұрын
40:04
【強化学習】ベルマン期待方程式 - 2手先を読んで価値を算出【強化学習の基礎方程式】RL vol. 9 #166 #VRアカデミア #ReinforcementLearning
10 ай бұрын
23:50
【線形代数】多変量正規分布 - 線形代数から見ると独立変数がたくさん登場!【行列21多変量正規分布への応用】 #165 #VRアカデミア #線型代数入門
10 ай бұрын
16:17
【強化学習】GPIと構造図 - 4つの対象の関係を図示して混乱と決別する!【強化学習は、探索と学習のループ】RL vol. 8 #164 #VRアカデミア #ReinforcementLearning
10 ай бұрын
15:58
【お披露目】と【重大発表】 #163 #VRアカデミア
10 ай бұрын
27:39
【線形代数】主成分分析 - ←は対称行列の固有ベクトルを順に見るだけ【行列20主成分分析への応用】 #162 #VRアカデミア #線型代数入門
11 ай бұрын
17:35
【強化学習】価値関数 - 最適化の主役はこいつ!【価値関数を通して収益最大化】RL vol. 7 #161 #VRアカデミア #ReinforcementLearning
11 ай бұрын
21:30
【対称行列の対角化⑥】準備はできた!数式の意味を正面から捉える!【行列19対称行列の対角化の数式④】 #160 #VRアカデミア #線型代数入門
11 ай бұрын
34:40
【強化学習】収益 - 「期待」「割引」収益ってなんだ!?【こいつを最大化します】RL vol. 6 #159 #VRアカデミア #ReinforcementLearning
Жыл бұрын
16:18
【対称行列の対角化⑤】内積で成分抽出できるから対称行列の対角化は便利なの!!!【行列18対称行列の対角化の数式③】 #158 #VRアカデミア #線型代数入門
Жыл бұрын
11:02
【強化学習】方策 - 行動選択の担い手【こいつを学習します】RL vol. 5 #157 #VRアカデミア #ReinforcementLearning
Жыл бұрын
Пікірлер
@amika3723
2 күн бұрын
わかりやすすぎる…無料でいいんですか…
@AIcia_Solid
Күн бұрын
ご視聴コメントありがとうございます! どうぞ! 是非ご活用ください!😋
@initff_4457
2 күн бұрын
平凡私大院で情報工学専攻です。僕は高校中退のつくづくバカなやつで、それが無理して院まで進んだせいで完全上位互換に囲まれて憂鬱な日々を送っていました。東大院修了のマスターなんかとは比べ物にならないほど低い次元で戦っていますが、マスターの動画は英語の読めない前提知識穴ボコの自分でもすらすら入ってきて救われています。僕も自分を受け入れられるように人一倍努力してこれからも鍛え上げようと思います💪💪💪 追伸 AI研究は研究予算ないと計算資源不足で何にもできなくなるので超天才マスターによる産業活性化に大きく期待しています。頑張ってください!
@AIcia_Solid
Күн бұрын
ご視聴コメントありがとうございます。 動画をご活用いただけてとても嬉しいです! 人それぞれ、戦う場所や、得意不得意はありますが、その中でそれぞれできることをできるだけやれたら良いなとおもいます。 initff_4457 さんの道も応援しております! 私も頑張ります!
@aigocham7
2 күн бұрын
いつもありがとうございます。 繰り返し計算をしないのに「反復法」と呼ぶのに少し違和感がありますが、実装した時にループ処理があったり?するのでしょうか
@AIcia_Solid
Күн бұрын
ご視聴コメントありがとうございます! 価値反復法は、Bellman 最適作用素の反復適用があるので、そこに注目して価値反部膜法と呼ばれているのではないかと思います!
@aigocham7
3 күн бұрын
素晴らしいコンテンツをありがとうございます。すごく理解が深まりました。 1点、素人質問で恐縮ですが Policy Improvementの「パラメタを変えて方策を改善」のパラメタとはどういったものでしょうか?
@AIcia_Solid
Күн бұрын
ご視聴コメントありがとうございます! そう言っていただけるととても嬉しいです! パラメーターは、モデルによりますが、当面はあまり意識しなくていい気がします。 この先で、Policy Gradient や深層強化学習を扱うと、パラメーターがでて来ます。その頃にまた説明しますので、それをお待ちいただきつつ、先に進んでいただくのが良いと思います!
@hitt1te
4 күн бұрын
Vがtに依存するような気がしてもやもやしていたのでそこの解説があってうれしいです。 (3冊読んだけど書いてなかった) 関連して質問なのですが、時刻 t を状態 s の中に入れてしまうという解決策を思いついたのですがどうですか? 要はMDPが時間変化しているのに定常として記述しているのが問題なので。
@AIcia_Solid
Күн бұрын
ご視聴コメントありがとうございます! 多分、こちらの本には書いてあるかと思います! 私もこの本で知りましたので! amzn.to/4ea4ddG その解法もありだと思います! とはいえ、完全に分離してしまうと、学習効率は下がったりするかもしれません🤔 そのあたりは、タスクに合わせて工夫するポイントかな?と想像します!
@hitt1te
17 сағат бұрын
ありがとうございます! その本も読んだつもりではあったんですが一冊目でよくわからなくて挫折しました…もう一度読み直してみます!
@AIcia_Solid
15 сағат бұрын
最初にあの本は挫折しますよね/(^o^)\ 気が向いた時に読んでいただければよいかと思います! 序盤の何処かに書いてあった気がします!
@komusasabi
6 күн бұрын
A=[シチュールウ、 カレールウ、牛肉、玉ねぎ、にんじん、じゃがいも、サラダ油、水、白飯] x^t=[0g,100g,200g,1.5個, 1本, 1個,大さじ2, 700ml, 1000g] Ax はカレーライス(5人分) y=シチューライス(5人分)のレシピを求めよ。 (行列の材料は9次元の縦ベクトルに数値化されているとします)
@AIcia_Solid
Күн бұрын
ご視聴コメントありがとうございます! 面白い問いですね!🎉
@佐藤大樹-n2u
9 күн бұрын
17:04 今後数学をメインでは使わないかもしれない自分には納得はできなかったのですが、すごく貴重なお話しを聞けた気がします!いつもありがとうございます。
@AIcia_Solid
Күн бұрын
ご視聴コメントありがとうございます! それでも見ていただいてコメントもいただけて嬉しい限りです!😊 ありがとうございました!
@itochan-neko
10 күн бұрын
数2を習わない高校だったうえに大学に行かなかったので数学的な解説は理解に時間が掛かりますが、普段から興味深く動画拝見させていただいてます! データサイエンスとは少しジャンルが違うかもしれませんが、もし知識をお持ちであればスパイキングニューラルネットワークについての解説が見てみたいです…!
@AIcia_Solid
10 күн бұрын
ご視聴コメントありがとうございます! なかなかハードなことばかり話しておりますが、楽しんでいただけてとても嬉しいです!!!🥳🥳🥳 スパーキングニューラルネットワークも面白いですよね! いつか扱えればいいとは思っていますが、動画生成が全く間に合っていませんで、、、🙇♀️🙇♀️🙇♀️ 扱えたとしても年単位でかなり先になるかと思います🙇♀️🙇♀️🙇♀️
@itochan-neko
10 күн бұрын
頑張ってついて行きますのでこれからも投稿頑張ってください! 年単位で応援してます!
@AIcia_Solid
Күн бұрын
ありがとうございます! 応援の程是非よろしくお願いします!🎉
@Luke02561
12 күн бұрын
このλをバンディット問題として自動設定する手法ないかな Agent57がやったみたいに
@AIcia_Solid
10 күн бұрын
ご視聴コメントありがとうございます! 実はまだ Agent57 はちゃんと読めてないのですが、そのうち動画で扱う予定です! その時には紹介できるかも?と思います!
@Luke02561
9 күн бұрын
ありがとうございます! 嬉しいです
@AIcia_Solid
Күн бұрын
まだ先になりそうですが、のんびりお待ちいただけると嬉しいです!(^o^)
@伊-l7r
13 күн бұрын
ありがとうございます。とても助かります
@AIcia_Solid
10 күн бұрын
ご視聴コメントありがとうございます! そうであればよかったです! ぜひご活用くださいませ!😊
@aliceinjp1
14 күн бұрын
棋神ラーニングの実戦クイズですが,履歴から過去の実戦クイズ振り返りできますよ。
@AIcia_Solid
10 күн бұрын
ご視聴コメントありがとうございます!!!! できました!!!!!!!!! ありがとうございます!!!!!!!!!!
@comcom-t4b
14 күн бұрын
動画のタイトルがこの式の意味みたいなものですね笑
@AIcia_Solid
10 күн бұрын
ご視聴コメントありがとうございます!! まさに! その通りなのです!
@comcom-t4b
14 күн бұрын
先日上梓された微積分・線形代数入門と合わせて見ると、とても理解が進みます😂感謝しかないです!
@AIcia_Solid
10 күн бұрын
ご視聴コメントありがとうございます! 書籍もご購入頂きましてありがとうございます! ぜひ、両方合わせて楽しんで頂けると嬉しいです😊🎉
@理科歴史
15 күн бұрын
各変数の分散、共分散しか持っていない行列Σなのに、適切にベクトルを選ぶことで違う変数(二つの平均など)の分散、共分散も抽出できるんですねー
@AIcia_Solid
10 күн бұрын
ご視聴コメントありがとうございます! そうなんです!! なかなか素敵ですよね😊
@たんてらき
15 күн бұрын
とてもわかりやすくていつも助かってます! 一つ疑問に思ったのですが、畳み込み層におけるカーネル(元データに対して適用する畳み込み行列?)の値って、学習で決定するのでしょうか? それとも定数? 答えていただけるとありがたいです!
@AIcia_Solid
10 күн бұрын
ご視聴コメントありがとうございます! ふつうはパラメーターの値は学習で決めます!! 今回の例は、イメージとしてわかりやすいよう出したものです。そういうものと理解いただけると嬉しいです!
@lukemira5567
17 күн бұрын
でも、インターフェースや通信は古典でもスループット的には、OKな気もする。
@AIcia_Solid
17 күн бұрын
ご視聴コメントありがとうございます!🎉 そうなんですか? 最近の動向は追えてないのでわからないですが、そのあたりも発展があるとよいですね!!!🎉
@johnlennon2009nyc
18 күн бұрын
素晴らしいです
@AIcia_Solid
17 күн бұрын
ありがとうございます!
@坂口祐幸
20 күн бұрын
社会人大学院で強化学習の講座をとり参考にと思い視聴していますが、こちらの動画の方がわかりやすいです。 この手の勉強をすると数式、記号の使い方が書籍により、異なり初学者は混乱します。(だいぶ慣れましたけど) 今、昔の深層学習の動画を見ていますが、昔より黒板の字が上手くなったと思います! 本購入しましたよ!これからもよい動画を期待しています
@AIcia_Solid
20 күн бұрын
ご視聴コメントありがとうございます!🎉🎉🎉 ぜひご活用いただけるとうれしいです!(^o^) 記号はそうですね、、、私もやや古い本を基本にしてるので、現代的なものとズレていたらすみません、、、! そういう物があればお教えいただけると嬉しいです! 板書は最近意識してます! 昔は何も考えてなかったので😇 それも気づいていただきありがとうございます! そして、書籍もご購入いただきありがとうございます! ぜひかわいがってあげてください!🥳
@まままーま-m1w
21 күн бұрын
内容は興味深いですし、著書も購入させていただいたんですけど、男性が当たり前のように美少女アバターに声をあてているのは見れないんです。なんか、拒絶反応が出てしまって。もしかしたら性的指向の問題があるのかもしれないし、デリカシーのないアドバイスかもしれないけど、その娘はアシスタント的な役割にして、普通にお兄さんの先生でやられたほうがいいのではないでしょうか。
@AIcia_Solid
20 күн бұрын
ご視聴コメントありがとうございます! なかなか言いづらいものかとは思いますが、その中でもご意見もいただきありがとうございます。とても嬉しいです! ただ、大変申し訳無いのですが、私はこのスタイル以外でやることはできませんので、ご理解とご容赦いただけますと助かります。 よろしくお願いします🙇♀️🙇♀️🙇♀️🙇♀️🙇♀️
@kawadaat
21 күн бұрын
いつも面白い動画を作成してくださりありがとうございます。 パラメータの数が違う(動画の例だと1025個[1024次関数]と30個[2次関数×10])のに同等の出力(表現)が可能なのは"理論上"パラメータのとれる(探せる?)値が(非可算)無限にあるからでしょうか? また、その認識が正しかった場合『実際は(コンピューターが扱うので)パラメータのとれる(探せる?)値は有限しかないが、コンピューターの性能向上でとれる(探せる?)値の粒度が上がったことにより、人間の求める精度での出力(表現)が可能になった』という理解でよろしいでしょうか? お忙しいところ恐縮ですが、お時間がありましたらコメントいただければ幸いです(頓珍漢な質問でしたらすみません)。
@AIcia_Solid
21 күн бұрын
ご視聴コメントありがとうございます!🥳🎉🎉🎉 ここはふわっと気持ちを話したのみなので、ふわっと受け取っていただけると嬉しいです。 1024次関数くらいの複雑さを持つ関数を表現したい場合、 ほんとに全係数をパラメーターとしなくとも、 2次関数10個の積み重ねでも表現できるよ! という主張です。 当然、1024次関数の全パラメタをいじるよりは少ない関数しか表せませんが、 それでも複雑な関数をパラメーター効率よく得られるよ! というのが、関数を深く積み重ねる恩恵です。 いかがでしょうか? なお質問が残る場合はぜひお聞きください!
@kawadaat
20 күн бұрын
@@AIcia_Solid かしこまりました!また疑問が湧きましたら質問させていただくかもしれません。 お忙しい中コメントありがとうございます。 AIciaさんの包容力にはいつも感銘を受けております。
@AIcia_Solid
20 күн бұрын
@kawadaat いつでもぜひ! お褒めにあずかり嬉しいです😊 真剣に見ていただいて、何かに活用していただくことが私も嬉しいので、ぜひご活用ください!
@sei40kr
26 күн бұрын
シリーズ見終わりました。書籍「微積分+線形代数入門」のKindle版は出るのでしょうか。特異値分解や正準相関分析など自分がまだ知らない分野があるので楽しみにしております。
@AIcia_Solid
26 күн бұрын
完走お疲れ様でした!!!🎉 そして、ご支援いただきありがとうございます! とても嬉しいです!!! いただいたお気持ちと資金を元に、今後も良き動画を生成できればと思います!!!🔥 Kindle 版は出ると思います! 今までのシリーズ全部出ておりますし! (出版社の公式見解ではなく、私の想像です。) ぜひその時は、お手に取っていただいて、たくさん可愛がっていただけると嬉しいです!🥳
@志村駿-g5k
26 күн бұрын
①~④を見ました!!量子計算がなぜ早いのか,とても丁寧なご説明のおかげで無事(少なくとも自分が腑に落ちる程度までは)理解できました!要は量子状態の各規定状態の係数が,計算して取り出したいor入力する値になっている,ということなんですかね?つまり途中段階では観測を行わず量子状態のみ変化させ,最後に値を取り出したいときだけ,観測を何度も行うことでその数値(=確率)を得る,という流れなのでしょうか.
@AIcia_Solid
26 күн бұрын
ご視聴コメントありがとうございます! ご質問もありがとうございます! まさに、概ねそのような理解で良いと思います! (純粋状態がとか、混合状態がとか、そういうことを言い出すと、また色々あるとは思います。 ですが、最初の理解としてはそういう感じでよいのではないかと思います! 量子状態についてはそこまで詳しくないので、より詳細が知りたい場合は、量子論や量子計算についての web 記事や書籍等を見ていただけるとよいのではないかと思います! 🙇♀️)
@Red_Led162
28 күн бұрын
将棋からアイシアさんを知り、機械学習などの動画を見るようになった流入の民です。応援してます!
@AIcia_Solid
26 күн бұрын
ご視聴コメントありがとうございます! まさか! 将棋方面から知っていただけるとは! とても嬉しいです!☗☖ 今後は両方やっていきたいなと思っていますので、是非両方応援いただけると嬉しいです😊 よろしくおねがいします!
@toshi3395
Ай бұрын
面白かったです😂
@AIcia_Solid
26 күн бұрын
ご視聴コメントありがとうございます! そう言っていただけるととても嬉しいです😊 いま、VSCC卵という大会に向けて頑張ってます! 是非応援いただけると嬉しいです。 よろしくおねがいします!
@もんきーくん
Ай бұрын
美少女だとおもってきたらおじさんだった
@AIcia_Solid
26 күн бұрын
令和も始まってもう6年ですから😎 そういう時代なのです✌️
@cyanchannel6370
Ай бұрын
配信お疲れ様です!
@AIcia_Solid
26 күн бұрын
Cyan Channel さんありがとうございます! 楽しく将棋を指せました🎉
@suruga1019
Ай бұрын
見に来たら終わってた😂
@AIcia_Solid
26 күн бұрын
見に来ていただきありがとうございます! アーカイブもありますので、是非のんびりどうぞ 😊
@Ran21050
Ай бұрын
まさかの強化学習つながり笑
@AIcia_Solid
26 күн бұрын
おおー! 昔からご覧いただきありがとうございます! ついに私が直接指す時代がやってきました!(笑) VSCC卵という大会目指して頑張ってます🔥 是非応援いただけると嬉しいです。 よろしくおねがいします!
@kazukinagata7064
Ай бұрын
第7回の話にあった PΛP-1 のn乗を考えてみると、間にある PP-1 がすべて単位行列になるから PΛ(n)P-1 となって、これも成分「抽出 → 拡大・縮小 → ベクトルへ戻す」をやっているのだなと気付きました。分かりやすい!
@AIcia_Solid
26 күн бұрын
ご視聴コメントありがとうございます! 素敵な発見ですね!!!!! まさにそうだと思います! 私の動画をきっかけに面白い発見に至っていただいて、私もとても嬉しく感じます!!!🎉
@ばく-n5g
Ай бұрын
とてもわかりやすくて助かっています。 初歩的な質問なのですが、「1024次関数なら1025パラメータが必要だが、2次関数10回繰り返すと30パラメータで同じ複雑さを得る」とありますが、30パラメータの計算の組み合わせだけで任意の1024次関数を生成する(つまり、1024次関数と同じ表現力を得る)ことはできるのでしょうか?
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます! もちろん全部は無理で、表現力も同じではありません! ここの議論の主眼は、少ないパラメーターで十分複雑な関数を得られることであり、 全部を作れるかはあまり重視しておりません。
@whilewecan
Ай бұрын
有難うございます。ところで「2手先」は誤解を招くいいかたと思います。V→VやQ→Qという一つのズレのほうがイメージしやすく、しいて2手というのなら、V→Q→Vとして2手分の返還をすることで次のVを記述すると、とかのほうが分かりやすいと思います。あるいは私が勘違いしてるのか、、どうか。。。
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます! 一応、動画における2手先は、おっしゃっていただいている V → Q → V などを念頭に話しているつもりです。 そうとしてみるといかがでしょうか、、、? また、この秒数あたりの発現が良くない! など、もし具体的な指定が可能でしたらお教えいただけるととても助かります。 ご検討いただけるとたすかります、よろしくお願いします!🙇♀️🙏
@ayakyon1
Ай бұрын
買いました。動画の復習になりそうです。
@AIcia_Solid
Ай бұрын
ご購入いただきありがとうございます!!!🥳🥳🎉🎉🎉 はい! 似た内容を、それぞれのメディアに合わせた形で書いてますので、両方活用いただければより深く理解できるのではないかと思います。 是非試してみてください!🎉
@fumitak7734
Ай бұрын
Δw^2 = σ^2ΔtよりΔw(t_i)^2=σ^2Δtとしていますが、Δw(t_i)とΔwは意味が違いますよね? V(Δw(t_i))= E(Δw(t_i)^2)- E(Δw(t_i))^2=Δw^2を考えればいいのでしょうか?
@AIcia_Solid
Ай бұрын
質問ありがとうございます! たしかに Δw(t_i) は Δw とは異なりますが、 Δw(t_i) = +Δw or -Δw なので、常に Δw(t_i)^2 = Δw^2 が成立します。 これで疑問の解消にはなりますでしょうか?
@fumitak7734
Ай бұрын
@@AIcia_Solid ありがとうございます。スッキリ理解できました。
@fumitak7734
Ай бұрын
Δw(k/n)とΔwで混乱してます
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます! なるほど! 混乱ポイントお教えいただきありがとうございます! Δw は、w の変化の速さを表す定数のパラメーターで、 Δw(k/n) は、関数 w の値の差分です。 (正確には、w は確率過程と呼ばれます) Δw(k/n) の大きさを決めているパラメーターが Δw と考えていただけるとよいのではないかと思います! 他にも疑問点や混乱点などありましたらいつでも質問していただけると嬉しいです!
@fumitak7734
Ай бұрын
@@AIcia_Solid 回答いただき、ありがとうございます
@Kou-12
Ай бұрын
嬉しい
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます! そう言っていただければ私も嬉しいです😊
@moumou1414
Ай бұрын
一般人が疑問に思っているところをちゃんと疑問としてくれてることろが素晴らしいです!
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます!!! 何を隠そう!!! 私が混乱しまくったので!!!!!!!!!(笑) 同じ混乱に陥る人が減ることを祈ります🙏 ご視聴コメントいただきありがとうございました!
@yugosaito9704
Ай бұрын
Early fusion, late fusion について知りたいです!是非お願い致します。
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます! Multi-Modal を扱う面白い方法ですよね! 残念ながら、今の投稿予定ですと、生成モデルを扱うのは2026年以降でして、Multi-Modal となると2027年以降になるか、または、扱えないかも知れません。 急ぎ必要な場合は、別の方法で学んでいただけるとよいのではないかと思います!🙇♀️
@throatapple
Ай бұрын
とても勉強になります。ありがとうございます。 一点質問なのですが、 方策改善 π = argmaxQ^_π によって「状態sにおけるQ_π」が最大となる行動aをとる方策」がもとめられた(まとめのピンクの部分)状態で、なぜまたその方策評価(まとめのオレンジの部分)のパートへ戻ってやり直す必要があるのでしょうか? その方策におけるQ_πがわかっているのであれば、すでにV_πもわかっているのではないでしょうか。 的外れな質問でしたら申し訳ございません。
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます! 素敵な質問ですね!!!🥳 それには、強化学習の目的が関わります。 強化学習の目的は収益が最大となる方策の発見です。 その途中の過程の一つとして、方策評価と方策更新を行っています。 じつは、この方策評価と更新を果てしなく繰り返せば、最後には最適方策(※)が得られると知られています。 (※最適方策は、収益の最大化を実現する方策です) なので、何度も何度も方策評価・更新を行うのです。 (この繰り返しを、Generalized Policy Iteration と言います) まとめると、方策評価という部分問題に注目するのであれば、Q^π が求まればそれで完了なのですが、 強化学習全体に目を向けると、最適方策の発見のためには繰り返しが必要という感じです。 以上です! もしまだ追加で疑問があれば、ぜひ聴いていただけると嬉しいです! このあたり、ほんとに混乱しやすいので!!!!!
@flashnewlight1075
Ай бұрын
勉強になる。 素晴らしい。 予備校の講義みたいですね。
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます!🎉 ヨビノリさんとはコンセプトが似てるところもありまして、そうおっしゃっていただけるととても嬉しいです😊🎉
@NAPAPQ
Ай бұрын
漸化式の一般解の表現方法が斉次線形微分方程式のそれとそっくりで感動した
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます! 面白いですよね!!! 漸化式の差分方程式と、微分方程式で共通の数学的構造が見えるのは、とてもきれいだなとわたしもおもいます!!🎉
@sei40kr
Ай бұрын
4:55のδh/δxfdtの項はどこから出てきたのでしょうか。
@sei40kr
Ай бұрын
自己解決しました。左辺のδh/δxfdxがそもそもδh/δxfdtですね。
@AIcia_Solid
Ай бұрын
それはとてもよかったです! じっくり見て頂いてありがとうございます! また何か不明点等あればぜひ遠慮なくいつでもご質問いただけると嬉しいです。 よろしくお願いします!🥳
@仲原健太
Ай бұрын
このアイシアちゃんの服可愛いな
@AIcia_Solid
Ай бұрын
わかります🤤🤤🤤
@toc15h32
Ай бұрын
分かりやすく解説ありがとうございます!因子分析も、このような対角行列などが関係してくるのですか?(既に動画化されていたらすみません)
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます! 因子分析はここまで綺麗にいかないので、最適化をかけて計算されます。 その辺りは扱っていないですが、 因子分析について → kzbin.info/www/bejne/kHvJqqewqNZ8Z9Esi=BuOjVQ-x3oV_oge7 因子の回転について → kzbin.info/aero/PLhDAH9aTfnxLJBVkgzCe1MHn3XwgUHwpx&si=x1_ovQVdEsCqONAz あたりで話しているので、もし興味があれば御覧ください!
@elruddy5091
Ай бұрын
線形代数シリーズ分散共分散のところまで見終えて追っているものなのですがこのシリーズでの内容を実データやサンプル例を用いてどう活かすのかを重点に置いた書籍、内容等ございましたら教えていただきたいです!
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます! 実データへの適用はないですが、ほか分析モデルとの連携は amzn.to/3Jc76OC amzn.to/4deuvvI に書きました! 過去の動画シリーズでは、このあたりが対応します。 kzbin.info/www/bejne/o37QhXulj7CKiqssi=wozTzbaessKU5Ezl kzbin.info/www/bejne/iZe4pYWsqM-Wp9Usi=CjKt5zDalIOCaevf あとは、多変量解析で良く使われるので、それ系の本を読んでも良いかも知れません。 amzn.to/3zvgCua (ほか、多変量解析と名のつく本で好来そうな本があればそれでも良いかと思います!) 一応、この動画シリーズの中で、分析モデルへの応用も触れますので、年内くらいに出せればなとは思っています!
@user-bs6ty7ps7g
Ай бұрын
俺が理解できるのは何年後なんだろう😦
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます! 興味さえ持っていただければ、あとは何度も触れるうちにそのうち掴めるものだと思います。 じっくり行きましょう😊
@佐藤大樹-n2u
Ай бұрын
久しぶりの線形代数動画ありがとうございます😢
@AIcia_Solid
Ай бұрын
おまたせしました!!! こちらこそ、ご視聴コメントありがとうございます😊✌️
@EKWORK-n2x
Ай бұрын
こちらの本、Kindle版等電子書籍版は出版される予定でしょうか…?
@AIcia_Solid
Ай бұрын
ご質問ありがとうございます! シリーズ今まで全部出てるので、ちゃんと売れたら出ると思います😊 (未公開情報を知ってるわけではなく、私個人の想像で書いています。)
@ymori-vp6rq
Ай бұрын
このような形で著者の気持ちを知れるのは良いですよね 本の魅力がよくわかる 色々とあり来年は線形代数や非線形最適化やラグランジュの未定乗数法と向き合うことになりそうなのでこの本を手元に置きながら頑張ります🤩
@AIcia_Solid
Ай бұрын
ご視聴コメントありがとうございます! そう言っていただけると嬉しいです😊 応援しております! この本が役に立つと願います!🔥