KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
誰でも分かる!バルサラの破産確率
50:04
高校数学からはじめる深層学習入門(畳み込みニューラルネットワークの理解)
55:35
How To Choose Mac N Cheese Date Night.. 🧀
00:58
Players push long pins through a cardboard box attempting to pop the balloon!
00:31
Hoodie gets wicked makeover! 😲
00:47
Thank you Santa
00:13
絶対に理解させる誤差逆伝播法【深層学習】
Рет қаралды 199,700
Facebook
Twitter
Жүктеу
1
Жазылу 1,2 МЛН
予備校のノリで学ぶ「大学の数学・物理」
Күн бұрын
Пікірлер: 132
@kobashinya
3 жыл бұрын
40:22 の編集が神すぎる
@taaatsutube
3 жыл бұрын
ほんとに1時間もせずに誤差伝播法が理解できるとは思いませんでした。すごく感謝です。ありがとう!
@hs-xn3eo
Жыл бұрын
初めて理解できました。 数学的帰納法(逆順ver)みたいな感じで計算されていくイメージをもちました。 やりたいこと : 全ての層の(全ての)重みの勾配を求めたい 手順 : ①出力層の勾配を求める ②①の勾配の計算結果の一部を使って、出力層の1つ前の勾配を求める ③②の勾配の計算結果の一部を使って、出力層の2つ前の勾配を求める ④以下同様にして、全ての層の勾配を求める
@J0hn_Srn1th
Жыл бұрын
0:00 導入 8:47 更新量(誤差関数と勾配降下法の話) 12:15 誤差逆伝播法の心 14:39 多変数関数の偏微分について(連鎖律) 25:54 本題。まずは問題設定 27:56 出力層の重み更新 39:19 中間層の重み更新 47:00 誤差逆伝播法のミソ
@2ohagi684
3 жыл бұрын
原理を理解しなくてもライブラリでNNを使用できる今の世の中 数式で理解させてくれるたくみさんの授業が素晴らしすぎる、、
@_4rN0
3 жыл бұрын
まじで待ってた!!!!! これからも深層学習の話して欲しい😊😊
@yutakanishiyama8429
Жыл бұрын
「誤差逆伝播」の知識はありましたが、深い理解はまだ出来ていなかったところ、「そりゃ、そうやな」と納得出来ました。いつもありがとうございます!こんな素晴らしい動画を作って下さって、感謝しています。
@k_ggle
3 жыл бұрын
まじですか!誤差逆伝播法難しくて悩んでたのでめちゃくちゃ嬉しいです!!ありがとうございます!
@くりーむぱん-n7p
3 жыл бұрын
たくみさんが言う「絶対に理解させる」が頼もしすぎます
@いっちー-c8q
2 жыл бұрын
本で勉強していましたが、勾配の計算がきちんと理解できずにいました。 ですが、この動画を見て、誤差deltaの考え方がわかり、 また、ニューロンが変わったときに、計算式がどう変わるのかがよく理解できました。 とても助かりました。ヨビノリさんありがとうございます!
@takau9266
3 жыл бұрын
MRIの雑音除去の研究をやっている大学生です。 前期に雑音除去やるのに、DnCNNなどのニューラルネットワークを勉強しました。 が、マジでここ1週間悩んでようやく理解できました。
@ボールペン-n4w
3 жыл бұрын
今は分からなくても、いつか理解できる日が来ると思って待ちながらこの動画見てる
@lincoqie
Жыл бұрын
情報系の知識が必要な論文読まなくちゃいけなくて、無理ゲーと思ってたけど、これ見てからなら理解しながら読めそう。大人になると自分の分野外を勉強するのはシンドイこと多いけど、ヨビノリ動画はパッと教えてくれて助かるな😄
@江場さくら
3 жыл бұрын
ジェンガの例えがとても分かりやすくていいなと思いました!
@恵斗-p6c
3 жыл бұрын
大学でニューラルネットワーク実装してこいって言われてたから本当に助かります
@関皓介
Жыл бұрын
リカレントニューラルネットワークと強化学習 入力層、中間層、出力層、重み値、教師信号 こうやって解説聞いてると 普段、数学や科学の知識が基本になってるんだなあと改めて思う
@kahha_oeh
Жыл бұрын
まだ途中までしか見てないですが、これが無料で見られるって凄すぎです。。。udemyよりもわかりやすくて面白い!! マジで感謝です〜〜〜〜〜〜
@fobonu2ec
Жыл бұрын
誤差逆伝播法、名前はよく聞くけど意味はわからず、という状態が続いていましたがようやくイメージ掴めました。 連鎖率を使うだけで重みの更新が1つ先の層の誤差で決まるなんて、まさに多変数関数の“ネットワーク”だなと。 まるで逆伝播の様子が、先の出力の反省をしているようで急に人間味が感じられてきて、 学習と聞くと順伝播のイメージがありましたが、順伝播を演習問題を解く、逆伝播を出来なかった問題の復習と捉えると逆伝播こそ学習の本質だなと感じました。
@sage_goes1504
3 жыл бұрын
誤差逆伝播法好き ディープラーニングの勉強してる時この考えに感心した
@ControlEngineeringChannel
3 жыл бұрын
一見、黒板では限界のような内容にどんどん入っていますが、それでも黒板でわかりやすく誤差逆伝播法の話ができるのが凄いです。たくみさんがこのチャンネルの授業動画でパワポを使う日は来ないんでしょうか。
@RS-303
2 жыл бұрын
パワポ?黒板と日本製チョークが世界の数学者のスタンダード。
@AkitoHirota
Жыл бұрын
NWの勉強していて、詰まっていたところだったので、非常にありがたいです。これからも聴講させていただきます。無理せずにこれからも続けて欲しいです。
@abc0to1
3 жыл бұрын
この授業をのべ5万人近くが視聴してるのに感心した。日本も捨てたもんじゃないな。
@ペンギンクミマヌ
11 ай бұрын
フレームワーク使ってなんとなく扱っていた部分がスッキリ理解できました。
@うさみみんらでぃんちゃん
2 жыл бұрын
Stanford の coursera が英語厳しくてここに避難してきた。たすかる。
@e45redr6tgty78uhu
2 ай бұрын
仰る通り多変数関数の連鎖律(+添え字)が悪さをして理解しづらくしてるだけで、やりたいことと実際にやってることはそんなに難しくないんですね。よく分かりました!
@コンストラクタ
3 жыл бұрын
ありがとうございました。分かりやすかったです!
@kenkenmath
3 жыл бұрын
連続講義嬉しい❗️
@mayogiraichairman3039
2 жыл бұрын
今、誤差逆伝播法に関して勉強しているので、解説して頂いて助かりました!
@II-nu6uo
3 жыл бұрын
めっちゃわかりやすかったです! この考え方、他の何かにも使えそうだな〜って思いました
@_4rN0
3 жыл бұрын
いつかRNNの動画があがることを期待して待ってます😊
@ガオフシュアイ
2 ай бұрын
学部一年でも理解しやすくてありがたい
@-_-plm2232
3 жыл бұрын
GANとかやってほしい
@lotus0509
3 жыл бұрын
式・記号に見てわかる解説があって非常にわかりやすい講義だと思いました! 畳み込みニューラルネットワーク(CNN)になると、"共有の重み"を更新するので混乱しやすいと思います(というより私が混乱しています)。 ぜひ、CNNの場合の誤差逆伝播法も解説して欲しいです。
@ah-xq7ht
7 ай бұрын
神動画ありがとうございます!!理解できた気がしています!
@Catorce7
2 жыл бұрын
微分積分が全く分かってないからサッパリですわ… 深層学習難しすぎ。
@まるぐぅ-b6n
3 жыл бұрын
これはありがたい!!!!
@yunovation_melodica
3 жыл бұрын
ガウス過程の動画もみたいです🥺
@uy9664
3 жыл бұрын
ブレークスルー賞を受賞した光格子時計と柏原予想についての噛み砕いた解説をお願いしたいです!
@お掃除本舗-o4x
3 жыл бұрын
活性化関数に恒等関数ではなくシグモイド関数を使用した例を見てみたいです
@user-wanwan-0920
3 жыл бұрын
昔々に卒論で取り組んだ話でしたので当時を思い出しつつ拝見しました。当時のWSによる計算は大変でした
@タンケッキー-n8f
3 жыл бұрын
ヘスの法則を利用する問題を解くときに、エネルギー図を使ったやり方を教えて欲しいです! ピンチなんでお願いします🙇♀️
@たけ-t7q
3 жыл бұрын
これは素晴らしい
@やせ56にゃん
3 ай бұрын
z=(u1 u2 u3...) u1=(x1 x2 x3..) という時に、xkはu1 u2 u3...の全てに関わっているというところなのですが、 u2やu3も同様に u2=(x1 x2 x3...) というような関数として示せるということでしょうか、、? そうなると全部のuが同じ関数ということになってしまいますか?
@tungsten802
3 жыл бұрын
電磁気と波動の全解説の予定ってありますか?
@TV-pn5mg
3 жыл бұрын
個人的には睡眠用bgmにいい(声が落ち着く)
@ねこじゃらし-c7z
3 жыл бұрын
ちょうど研究室の研究内容でした。まじで助かりますありがとうございます。
@レスポールカスタム-z2f
9 ай бұрын
G検定で誤差逆伝播法ってワードは出てきたけど、ここまで奥が深いのか…
@ph4746
Жыл бұрын
26:00 自分用:連鎖率の話終わって本筋に戻る。
@宇都宮餃子-f8g
3 жыл бұрын
なるほどよくわからん 結論の部分先出しでそれから計算して貰えれば多分一番わかりやすかったと自分は思いました。
@drtmmy2377
3 жыл бұрын
物理学科だけど、今年から深層学習の勉強はじめました!
@なかむらひろし-e7g
3 жыл бұрын
待っていました〜
@user-lo7jf9bm9q
3 жыл бұрын
ちょうど勉強したてだったので復習になりました。
@hiroh.8626
Жыл бұрын
楽しすぎてにやけちゃいました
@ken39rai
3 жыл бұрын
やっぱ難しいな、誤差逆伝播法。 何回か見直す必要ありそう。 理解できなかったのは連鎖律知らんかったからかw でもこういう動画はありがたい
@milkman5966
3 жыл бұрын
23:11 メルエム戦終盤のネテロ会長
@石原正貴
3 жыл бұрын
神動画あらわる
@users_774
Жыл бұрын
有限要素法についての解説をお願いしたいです!有限要素法のコードをc++でかくという課題が出て、躓いてます。。
@imama7148
3 жыл бұрын
難しかった 数2Bまでの知識では理解できないでしょうか ヨビノリさんの動画で前提知識をつけるのにオススメの動画があれば教えて下さい
@ipu_dayoh
3 жыл бұрын
共テぶりに見に来たけど円周率不変で草 なんかありがとうございます。
@skthelimit
3 жыл бұрын
Thanks!
@naoyaohtaki2258
3 жыл бұрын
ヘッブ則なんかとも関係してくるんでしょうかね? いつも勉強になります!
@KAMEUSAGIGAME
3 жыл бұрын
これで復習します
@user-ms8tk2n8
3 жыл бұрын
Chainerも良いけど これも良いね
@小野賢一郎
3 жыл бұрын
ありがとうございます!
@小野賢一郎
3 жыл бұрын
連鎖律の復習までしてくれるのは本当にありがたい!ありがとうございます!
@服部司-e9h
3 жыл бұрын
初めて誤差伝搬法がすっきり理解できました。ありがとうございます。
@バンブ-u1r
3 жыл бұрын
以前学んで知ってる内容ですが、たくみさんの授業が好きで深層学習と合わせて観ました^ ^ 個人的にはこの動画と深層学習との間に最急降下法を挟んでほしかったです。 昔勉強がてらにランダムな2次関数の係数を特定の3点を通る係数に最急降下法を用いて最適化した事があります。 動く2次関数も楽しいし真面目にいいネタでは?今からでも是非やってほしいです。 長くてすいません💦
@山田航暉-f5r
6 ай бұрын
0:42 ニューラルネットワークの概要 8:47 勾配降下法 14:37 連鎖律 25:55 誤差逆伝播法
@抹茶-n8r
3 жыл бұрын
なんか、よく分からない内容だったんですが見にきました
@quwse1
2 жыл бұрын
丸暗記した合成関数の微分公式がなぜそうなるのかを、今更ながらに知れた。
@affshima
3 жыл бұрын
ジャンガのたとえ分かりやすい。。。先に上から動かして、動かした位置で固定しながら、下の段を動かすことができるみたいな。。。
@SammoHungGambou
2 жыл бұрын
η(学習率)の話も入れて欲しかった
@doyu_
3 жыл бұрын
今回の続きで実際に具体的なデータセットを使って簡単な勾配降下法の計算例を示してもらえるとうれしいです。特にバッチの処理の場合に、順伝播で記録した入出力データを転置行列でかけて計算量を削減していけるかなどです。
@no882323
3 жыл бұрын
30年程前 日経雑誌の記事の絵と数式をたよりにガリガリ計算したのを思い出しました。 確か一層分だけガッツリ勉強してあとはこれに同じ!でゴマかした記憶があります。www 次回は多分 活性化関数の微分の説明でせうか。
@-_-plm2232
2 жыл бұрын
これ行列とベクトル使って凄いキレイにかけるよな。 いろいろよくできてるなーってなった
@user-Hiro0822
3 жыл бұрын
深層学習…興味あるけど難しい(^^; でも図で示してわかりやすく解説してくださっていたおかげで、イメージが掴みやすく、こんな私でも「全くついていけなかった💦」という状況だけは避けられました。 ありがとうございます!!
@murasso2736
Жыл бұрын
なんでフリーハンドでそんな真っ直ぐな線が引けるんだ...
@るうー-u1i
3 жыл бұрын
枝刈りの説明が聞きたいです
@中原くんを囲ってそうで囲ってない
Жыл бұрын
更新量のグラフが下に凸というか、最適解の時のみ傾きが0になっているのはなんでですか?
@小さな夜-u1i
2 жыл бұрын
後ろから考えていくアイデアはなるほどと思って爽快感があったけど、重み付けがuおよびz に影響するから、z 所与の重み付け導出ってどこまで意味があるのかと不安になってしまう...学習させる=重み付けが不正確で導出したzを所与として重み付けだけ変える、これで問題なくなる前提条件ってなんだろうか。
@beekaru_4126
3 жыл бұрын
ヨビノリすげーーな。
@ryozann
3 жыл бұрын
ありがとうございます。ランダムにパラメーター調整してたらたぶん人生終わるところでした笑
@yuikomiyakawa1713
3 жыл бұрын
ここでもとめた、dE/dwを、どう使うのでしょうか?
@chaosshignahama9279
3 жыл бұрын
中間層のδ計算でfが微分のままでおわっているけれど、fが恒等関数なら、その部分は1ですよね。あえてそう書かないのはなにかこちらに勘違いがあるのだろうか。実際プログラムにのせようとした場合、微分のまま終わっては、説明として中途半端な感じが。
@user-jj7hi6co4p
2 жыл бұрын
タクミさんに国民栄誉賞かなんかをあげて欲しい。日本のIT知識の向上にこれ程、貢献している人はいない。日本の宝!
@neo_0125
3 жыл бұрын
数学嫌いだけど面白そうだと感じた。でも、W111のところで、急にアンパンマンみたいだということを思いだし、笑いが止まらなくなった。はなでんおそろしや
@レジェンドケチャップ
3 жыл бұрын
人工知能の本読んでたんやがこれイマイチわからんかったから助かる
@きるみーべいべー
Ай бұрын
テンソルの計算みたい
@waiwai8572
Жыл бұрын
私みたいなおバカは、訳分からんままに実装してから戻ってくると、何となく雰囲気で理論を理解出来る(つもりになる)ことが分かりました笑 どうもありがとうございました。
@kaj694
Жыл бұрын
えぐい
@pozodepetróleo
3 жыл бұрын
だからアンパンマンは愛と勇気だけが友達なのか・・・
@komusasabi
3 жыл бұрын
誤差逆伝播法を解説したいなら、ゼロからシリーズにならってみかんとリンゴの購入、税込み価格のパラメトリックなモデルのパラメータ調整の話で具体例を見せた方が中学生でも理解できる状態にまで落とし込めそうです。 計算グラフという言葉も定義していただけるといいな。
@kaj694
Жыл бұрын
この動画のグラフは計算グラフとは違うと思います
@yutamatsui6890
3 жыл бұрын
授業でやったあとだった...(単位あったけど)
@居林裕樹-t2b
3 жыл бұрын
勉強させて頂きます🙏❗️(^人^)🌟
@usar-xx1uk4pp9h
3 жыл бұрын
今回のファボゼロ 8:50
@ng533
3 жыл бұрын
可能なコンテンツだけで大丈夫なのでVoicyに進出して欲しいです。 もちろん黒板が伝わらないようなものもあると思いますが、絶対にニーズはあるはずです。よければご検討をよろしくお願いします。О'̑〇̮'̑О
@pamiamin
2 жыл бұрын
クリリンのぶん笑 (でも22分ぐらいからわからなくなった...)
@gdgd_gd
2 жыл бұрын
中学数学でお願いします
@highlight7966
9 ай бұрын
δ(l)_jがδ(l+1)_jで求められる部分がしっかり理解できなかった。。。なんでや
@そう云えば何か忘れたかも
2 жыл бұрын
関連動画 ・【機械学習】深層学習(ディープラーニング)とは何か → kzbin.info/www/bejne/qWbCgZ5peM-bhKM
@そう云えば何か忘れたかも
Ай бұрын
追加 ・【速報】ノーベル物理学賞2024を解説【機械学習の基礎】 → kzbin.info/www/bejne/mn-xao2JjM14ac0
@dtstkt1123
3 жыл бұрын
バックプロパゲーション!!
50:04
誰でも分かる!バルサラの破産確率
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 203 М.
55:35
高校数学からはじめる深層学習入門(畳み込みニューラルネットワークの理解)
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 341 М.
00:58
How To Choose Mac N Cheese Date Night.. 🧀
Jojo Sim
Рет қаралды 99 МЛН
00:31
Players push long pins through a cardboard box attempting to pop the balloon!
Daily Viral Brief
Рет қаралды 38 МЛН
00:47
Hoodie gets wicked makeover! 😲
Justin Flom
Рет қаралды 139 МЛН
00:13
Thank you Santa
Nadir Show
Рет қаралды 37 МЛН
12:49
誤差逆伝播法(バックプロパゲーション) | Chapter 3, ニューラルネットワークの仕組み
3Blue1BrownJapan
Рет қаралды 58 М.
42:26
天動説から地動説に至るまで【人類の知恵が地球を動かす】
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 73 М.
36:37
【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】#095 #VRアカデミア #DeepLearning
AIcia Solid Project
Рет қаралды 81 М.
40:58
絶対に理解させる双子のパラドックス【相対性理論】
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 215 М.
19:47
【機械学習】深層学習(ディープラーニング)とは何か
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 239 М.
36:01
【深層学習】誤差逆伝播法|バックプロパゲーション
Able Programming
Рет қаралды 46 М.
17:53
ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)
3Blue1BrownJapan
Рет қаралды 253 М.
30:23
中心極限定理とは何か? 【正規分布が現れるとき・確率】
3Blue1BrownJapan
Рет қаралды 264 М.
39:35
【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
AIcia Solid Project
Рет қаралды 112 М.
14:06
面白い研究だらけな「イグノーベル賞」クイズ【QuizKnock×ヨビノリ】
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 177 М.
00:58
How To Choose Mac N Cheese Date Night.. 🧀
Jojo Sim
Рет қаралды 99 МЛН