KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
誰でも分かる!バルサラの破産確率
50:04
高校数学からはじめる深層学習入門(畳み込みニューラルネットワークの理解)
55:35
كم بصير عمركم عام ٢٠٢٥😍 #shorts #hasanandnour
00:27
一碗水真的能端平吗?不能也得能!#四小只吖 #日常 #搞笑 #搞笑家庭 #姐弟 #家庭生活
00:19
أختي الشريرة تزعجني! 😡 استخدم هذه الأداة #حيلة
00:24
Я не из тех, кто ксивой машет - я скромный | Сериал «ПрАкурор» | 3 серия | КОНКУРС
21:38
絶対に理解させる誤差逆伝播法【深層学習】
Рет қаралды 199,316
Facebook
Twitter
Жүктеу
1
Жазылу 1,2 МЛН
予備校のノリで学ぶ「大学の数学・物理」
Күн бұрын
Пікірлер: 132
@kobashinya
3 жыл бұрын
40:22 の編集が神すぎる
@taaatsutube
3 жыл бұрын
ほんとに1時間もせずに誤差伝播法が理解できるとは思いませんでした。すごく感謝です。ありがとう!
@hs-xn3eo
Жыл бұрын
初めて理解できました。 数学的帰納法(逆順ver)みたいな感じで計算されていくイメージをもちました。 やりたいこと : 全ての層の(全ての)重みの勾配を求めたい 手順 : ①出力層の勾配を求める ②①の勾配の計算結果の一部を使って、出力層の1つ前の勾配を求める ③②の勾配の計算結果の一部を使って、出力層の2つ前の勾配を求める ④以下同様にして、全ての層の勾配を求める
@2ohagi684
3 жыл бұрын
原理を理解しなくてもライブラリでNNを使用できる今の世の中 数式で理解させてくれるたくみさんの授業が素晴らしすぎる、、
@yutakanishiyama8429
Жыл бұрын
「誤差逆伝播」の知識はありましたが、深い理解はまだ出来ていなかったところ、「そりゃ、そうやな」と納得出来ました。いつもありがとうございます!こんな素晴らしい動画を作って下さって、感謝しています。
@いっちー-c8q
2 жыл бұрын
本で勉強していましたが、勾配の計算がきちんと理解できずにいました。 ですが、この動画を見て、誤差deltaの考え方がわかり、 また、ニューロンが変わったときに、計算式がどう変わるのかがよく理解できました。 とても助かりました。ヨビノリさんありがとうございます!
@k_ggle
3 жыл бұрын
まじですか!誤差逆伝播法難しくて悩んでたのでめちゃくちゃ嬉しいです!!ありがとうございます!
@_4rN0
3 жыл бұрын
まじで待ってた!!!!! これからも深層学習の話して欲しい😊😊
@くりーむぱん-n7p
3 жыл бұрын
たくみさんが言う「絶対に理解させる」が頼もしすぎます
@takau9266
3 жыл бұрын
MRIの雑音除去の研究をやっている大学生です。 前期に雑音除去やるのに、DnCNNなどのニューラルネットワークを勉強しました。 が、マジでここ1週間悩んでようやく理解できました。
@lincoqie
Жыл бұрын
情報系の知識が必要な論文読まなくちゃいけなくて、無理ゲーと思ってたけど、これ見てからなら理解しながら読めそう。大人になると自分の分野外を勉強するのはシンドイこと多いけど、ヨビノリ動画はパッと教えてくれて助かるな😄
@関皓介
Жыл бұрын
リカレントニューラルネットワークと強化学習 入力層、中間層、出力層、重み値、教師信号 こうやって解説聞いてると 普段、数学や科学の知識が基本になってるんだなあと改めて思う
@ペンギンクミマヌ
11 ай бұрын
フレームワーク使ってなんとなく扱っていた部分がスッキリ理解できました。
@J0hn_Srn1th
Жыл бұрын
0:00 導入 8:47 更新量(誤差関数と勾配降下法の話) 12:15 誤差逆伝播法の心 14:39 多変数関数の偏微分について(連鎖律) 25:54 本題。まずは問題設定 27:56 出力層の重み更新 39:19 中間層の重み更新 47:00 誤差逆伝播法のミソ
@江場さくら
3 жыл бұрын
ジェンガの例えがとても分かりやすくていいなと思いました!
@e45redr6tgty78uhu
2 ай бұрын
仰る通り多変数関数の連鎖律(+添え字)が悪さをして理解しづらくしてるだけで、やりたいことと実際にやってることはそんなに難しくないんですね。よく分かりました!
@sage_goes1504
3 жыл бұрын
誤差逆伝播法好き ディープラーニングの勉強してる時この考えに感心した
@fobonu2ec
Жыл бұрын
誤差逆伝播法、名前はよく聞くけど意味はわからず、という状態が続いていましたがようやくイメージ掴めました。 連鎖率を使うだけで重みの更新が1つ先の層の誤差で決まるなんて、まさに多変数関数の“ネットワーク”だなと。 まるで逆伝播の様子が、先の出力の反省をしているようで急に人間味が感じられてきて、 学習と聞くと順伝播のイメージがありましたが、順伝播を演習問題を解く、逆伝播を出来なかった問題の復習と捉えると逆伝播こそ学習の本質だなと感じました。
@うさみみんらでぃんちゃん
2 жыл бұрын
Stanford の coursera が英語厳しくてここに避難してきた。たすかる。
@kahha_oeh
Жыл бұрын
まだ途中までしか見てないですが、これが無料で見られるって凄すぎです。。。udemyよりもわかりやすくて面白い!! マジで感謝です〜〜〜〜〜〜
@AkitoHirota
Жыл бұрын
NWの勉強していて、詰まっていたところだったので、非常にありがたいです。これからも聴講させていただきます。無理せずにこれからも続けて欲しいです。
@ボールペン-n4w
3 жыл бұрын
今は分からなくても、いつか理解できる日が来ると思って待ちながらこの動画見てる
@恵斗-p6c
3 жыл бұрын
大学でニューラルネットワーク実装してこいって言われてたから本当に助かります
@ControlEngineeringChannel
3 жыл бұрын
一見、黒板では限界のような内容にどんどん入っていますが、それでも黒板でわかりやすく誤差逆伝播法の話ができるのが凄いです。たくみさんがこのチャンネルの授業動画でパワポを使う日は来ないんでしょうか。
@RS-303
2 жыл бұрын
パワポ?黒板と日本製チョークが世界の数学者のスタンダード。
@abc0to1
3 жыл бұрын
この授業をのべ5万人近くが視聴してるのに感心した。日本も捨てたもんじゃないな。
@mayogiraichairman3039
2 жыл бұрын
今、誤差逆伝播法に関して勉強しているので、解説して頂いて助かりました!
@-_-plm2232
3 жыл бұрын
GANとかやってほしい
@ガオフシュアイ
2 ай бұрын
学部一年でも理解しやすくてありがたい
@_4rN0
3 жыл бұрын
いつかRNNの動画があがることを期待して待ってます😊
@Catorce7
2 жыл бұрын
微分積分が全く分かってないからサッパリですわ… 深層学習難しすぎ。
@タンケッキー-n8f
3 жыл бұрын
ヘスの法則を利用する問題を解くときに、エネルギー図を使ったやり方を教えて欲しいです! ピンチなんでお願いします🙇♀️
@レスポールカスタム-z2f
9 ай бұрын
G検定で誤差逆伝播法ってワードは出てきたけど、ここまで奥が深いのか…
@lotus0509
3 жыл бұрын
式・記号に見てわかる解説があって非常にわかりやすい講義だと思いました! 畳み込みニューラルネットワーク(CNN)になると、"共有の重み"を更新するので混乱しやすいと思います(というより私が混乱しています)。 ぜひ、CNNの場合の誤差逆伝播法も解説して欲しいです。
@yunovation_melodica
3 жыл бұрын
ガウス過程の動画もみたいです🥺
@やせ56にゃん
3 ай бұрын
z=(u1 u2 u3...) u1=(x1 x2 x3..) という時に、xkはu1 u2 u3...の全てに関わっているというところなのですが、 u2やu3も同様に u2=(x1 x2 x3...) というような関数として示せるということでしょうか、、? そうなると全部のuが同じ関数ということになってしまいますか?
@コンストラクタ
3 жыл бұрын
ありがとうございました。分かりやすかったです!
@user-wanwan-0920
3 жыл бұрын
昔々に卒論で取り組んだ話でしたので当時を思い出しつつ拝見しました。当時のWSによる計算は大変でした
@ah-xq7ht
6 ай бұрын
神動画ありがとうございます!!理解できた気がしています!
@tungsten802
3 жыл бұрын
電磁気と波動の全解説の予定ってありますか?
@kenkenmath
3 жыл бұрын
連続講義嬉しい❗️
@II-nu6uo
3 жыл бұрын
めっちゃわかりやすかったです! この考え方、他の何かにも使えそうだな〜って思いました
@お掃除本舗-o4x
3 жыл бұрын
活性化関数に恒等関数ではなくシグモイド関数を使用した例を見てみたいです
@TV-pn5mg
3 жыл бұрын
個人的には睡眠用bgmにいい(声が落ち着く)
@ph4746
Жыл бұрын
26:00 自分用:連鎖率の話終わって本筋に戻る。
@宇都宮餃子-f8g
3 жыл бұрын
なるほどよくわからん 結論の部分先出しでそれから計算して貰えれば多分一番わかりやすかったと自分は思いました。
@uy9664
3 жыл бұрын
ブレークスルー賞を受賞した光格子時計と柏原予想についての噛み砕いた解説をお願いしたいです!
@ねこじゃらし-c7z
3 жыл бұрын
ちょうど研究室の研究内容でした。まじで助かりますありがとうございます。
@users_774
Жыл бұрын
有限要素法についての解説をお願いしたいです!有限要素法のコードをc++でかくという課題が出て、躓いてます。。
@drtmmy2377
3 жыл бұрын
物理学科だけど、今年から深層学習の勉強はじめました!
@まるぐぅ-b6n
3 жыл бұрын
これはありがたい!!!!
@たけ-t7q
3 жыл бұрын
これは素晴らしい
@hiroh.8626
Жыл бұрын
楽しすぎてにやけちゃいました
@murasso2736
Жыл бұрын
なんでフリーハンドでそんな真っ直ぐな線が引けるんだ...
@user-lo7jf9bm9q
3 жыл бұрын
ちょうど勉強したてだったので復習になりました。
@quwse1
2 жыл бұрын
丸暗記した合成関数の微分公式がなぜそうなるのかを、今更ながらに知れた。
@imama7148
3 жыл бұрын
難しかった 数2Bまでの知識では理解できないでしょうか ヨビノリさんの動画で前提知識をつけるのにオススメの動画があれば教えて下さい
@SammoHungGambou
2 жыл бұрын
η(学習率)の話も入れて欲しかった
@小さな夜-u1i
2 жыл бұрын
後ろから考えていくアイデアはなるほどと思って爽快感があったけど、重み付けがuおよびz に影響するから、z 所与の重み付け導出ってどこまで意味があるのかと不安になってしまう...学習させる=重み付けが不正確で導出したzを所与として重み付けだけ変える、これで問題なくなる前提条件ってなんだろうか。
@なかむらひろし-e7g
3 жыл бұрын
待っていました〜
@naoyaohtaki2258
3 жыл бұрын
ヘッブ則なんかとも関係してくるんでしょうかね? いつも勉強になります!
@-_-plm2232
2 жыл бұрын
これ行列とベクトル使って凄いキレイにかけるよな。 いろいろよくできてるなーってなった
@ken39rai
3 жыл бұрын
やっぱ難しいな、誤差逆伝播法。 何回か見直す必要ありそう。 理解できなかったのは連鎖律知らんかったからかw でもこういう動画はありがたい
@chaosshignahama9279
3 жыл бұрын
中間層のδ計算でfが微分のままでおわっているけれど、fが恒等関数なら、その部分は1ですよね。あえてそう書かないのはなにかこちらに勘違いがあるのだろうか。実際プログラムにのせようとした場合、微分のまま終わっては、説明として中途半端な感じが。
@affshima
3 жыл бұрын
ジャンガのたとえ分かりやすい。。。先に上から動かして、動かした位置で固定しながら、下の段を動かすことができるみたいな。。。
@ipu_dayoh
3 жыл бұрын
共テぶりに見に来たけど円周率不変で草 なんかありがとうございます。
@user-ms8tk2n8
3 жыл бұрын
Chainerも良いけど これも良いね
@るうー-u1i
3 жыл бұрын
枝刈りの説明が聞きたいです
@石原正貴
3 жыл бұрын
神動画あらわる
@user-jj7hi6co4p
2 жыл бұрын
タクミさんに国民栄誉賞かなんかをあげて欲しい。日本のIT知識の向上にこれ程、貢献している人はいない。日本の宝!
@抹茶-n8r
3 жыл бұрын
なんか、よく分からない内容だったんですが見にきました
@milkman5966
3 жыл бұрын
23:11 メルエム戦終盤のネテロ会長
@skthelimit
3 жыл бұрын
Thanks!
@バンブ-u1r
3 жыл бұрын
以前学んで知ってる内容ですが、たくみさんの授業が好きで深層学習と合わせて観ました^ ^ 個人的にはこの動画と深層学習との間に最急降下法を挟んでほしかったです。 昔勉強がてらにランダムな2次関数の係数を特定の3点を通る係数に最急降下法を用いて最適化した事があります。 動く2次関数も楽しいし真面目にいいネタでは?今からでも是非やってほしいです。 長くてすいません💦
@服部司-e9h
3 жыл бұрын
初めて誤差伝搬法がすっきり理解できました。ありがとうございます。
@KAMEUSAGIGAME
3 жыл бұрын
これで復習します
@中原くんを囲ってそうで囲ってない
Жыл бұрын
更新量のグラフが下に凸というか、最適解の時のみ傾きが0になっているのはなんでですか?
@doyu_
3 жыл бұрын
今回の続きで実際に具体的なデータセットを使って簡単な勾配降下法の計算例を示してもらえるとうれしいです。特にバッチの処理の場合に、順伝播で記録した入出力データを転置行列でかけて計算量を削減していけるかなどです。
@yuikomiyakawa1713
3 жыл бұрын
ここでもとめた、dE/dwを、どう使うのでしょうか?
@小野賢一郎
3 жыл бұрын
ありがとうございます!
@小野賢一郎
3 жыл бұрын
連鎖律の復習までしてくれるのは本当にありがたい!ありがとうございます!
@no882323
3 жыл бұрын
30年程前 日経雑誌の記事の絵と数式をたよりにガリガリ計算したのを思い出しました。 確か一層分だけガッツリ勉強してあとはこれに同じ!でゴマかした記憶があります。www 次回は多分 活性化関数の微分の説明でせうか。
@山田航暉-f5r
5 ай бұрын
0:42 ニューラルネットワークの概要 8:47 勾配降下法 14:37 連鎖律 25:55 誤差逆伝播法
@ryozann
3 жыл бұрын
ありがとうございます。ランダムにパラメーター調整してたらたぶん人生終わるところでした笑
@komusasabi
3 жыл бұрын
誤差逆伝播法を解説したいなら、ゼロからシリーズにならってみかんとリンゴの購入、税込み価格のパラメトリックなモデルのパラメータ調整の話で具体例を見せた方が中学生でも理解できる状態にまで落とし込めそうです。 計算グラフという言葉も定義していただけるといいな。
@kaj694
Жыл бұрын
この動画のグラフは計算グラフとは違うと思います
@highlight7966
8 ай бұрын
δ(l)_jがδ(l+1)_jで求められる部分がしっかり理解できなかった。。。なんでや
@レジェンドケチャップ
3 жыл бұрын
人工知能の本読んでたんやがこれイマイチわからんかったから助かる
@きるみーべいべー
Ай бұрын
テンソルの計算みたい
@beekaru_4126
3 жыл бұрын
ヨビノリすげーーな。
@pozodepetróleo
3 жыл бұрын
だからアンパンマンは愛と勇気だけが友達なのか・・・
@neo_0125
3 жыл бұрын
数学嫌いだけど面白そうだと感じた。でも、W111のところで、急にアンパンマンみたいだということを思いだし、笑いが止まらなくなった。はなでんおそろしや
@yutamatsui6890
3 жыл бұрын
授業でやったあとだった...(単位あったけど)
@pamiamin
2 жыл бұрын
クリリンのぶん笑 (でも22分ぐらいからわからなくなった...)
@user-Hiro0822
3 жыл бұрын
深層学習…興味あるけど難しい(^^; でも図で示してわかりやすく解説してくださっていたおかげで、イメージが掴みやすく、こんな私でも「全くついていけなかった💦」という状況だけは避けられました。 ありがとうございます!!
@waiwai8572
Жыл бұрын
私みたいなおバカは、訳分からんままに実装してから戻ってくると、何となく雰囲気で理論を理解出来る(つもりになる)ことが分かりました笑 どうもありがとうございました。
@gdgd_gd
2 жыл бұрын
中学数学でお願いします
@kaj694
Жыл бұрын
えぐい
@ng533
3 жыл бұрын
可能なコンテンツだけで大丈夫なのでVoicyに進出して欲しいです。 もちろん黒板が伝わらないようなものもあると思いますが、絶対にニーズはあるはずです。よければご検討をよろしくお願いします。О'̑〇̮'̑О
@usar-xx1uk4pp9h
3 жыл бұрын
今回のファボゼロ 8:50
@居林裕樹-t2b
3 жыл бұрын
勉強させて頂きます🙏❗️(^人^)🌟
@有休の旅人
Ай бұрын
誤差って、出力層の出力と教師データの差分だから、中間l層目の誤差ってのが理解できねー。δ(l)て何と何の誤差なんや
@imu-chan
4 ай бұрын
クリリンの分……?
50:04
誰でも分かる!バルサラの破産確率
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 203 М.
55:35
高校数学からはじめる深層学習入門(畳み込みニューラルネットワークの理解)
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 341 М.
00:27
كم بصير عمركم عام ٢٠٢٥😍 #shorts #hasanandnour
hasan and nour shorts
Рет қаралды 10 МЛН
00:19
一碗水真的能端平吗?不能也得能!#四小只吖 #日常 #搞笑 #搞笑家庭 #姐弟 #家庭生活
四小只吖
Рет қаралды 7 МЛН
00:24
أختي الشريرة تزعجني! 😡 استخدم هذه الأداة #حيلة
JOON Arabic
Рет қаралды 37 МЛН
21:38
Я не из тех, кто ксивой машет - я скромный | Сериал «ПрАкурор» | 3 серия | КОНКУРС
Я ОТ САКЕ
Рет қаралды 1,3 МЛН
12:49
誤差逆伝播法(バックプロパゲーション) | Chapter 3, ニューラルネットワークの仕組み
3Blue1BrownJapan
Рет қаралды 57 М.
36:37
【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】#095 #VRアカデミア #DeepLearning
AIcia Solid Project
Рет қаралды 81 М.
19:47
【機械学習】深層学習(ディープラーニング)とは何か
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 238 М.
58:21
るんとうに研究の話をひたすら聞いてみた【ダークマター】
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 239 М.
39:35
【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
AIcia Solid Project
Рет қаралды 112 М.
1:19:44
研究は行き詰まりません。プロなので【研究者の半生】
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 311 М.
17:53
ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)
3Blue1BrownJapan
Рет қаралды 251 М.
42:26
天動説から地動説に至るまで【人類の知恵が地球を動かす】
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 38 М.
1:01:28
機械学習の数学(鈴木 大慈 氏、FD研修会「人工知能と数学」)
OCAMI_math
Рет қаралды 23 М.
4:10:50
【完全版】この動画1本でディープラーニング実装(PyTorch)の基礎を習得!忙しい人のための速習コース
いまにゅのプログラミング塾
Рет қаралды 105 М.
00:27
كم بصير عمركم عام ٢٠٢٥😍 #shorts #hasanandnour
hasan and nour shorts
Рет қаралды 10 МЛН