深層学習の仕組み, 勾配降下 | Chapter 2, 深層学習(ディープラーニング)

  Рет қаралды 82,463

3Blue1BrownJapan

3Blue1BrownJapan

9 ай бұрын

この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。
チャンネル登録と高評価をよろしくお願いいたします。
このシリーズが良いと思った方はぜひ共有もよろしくお願いします!
前回(第一回)
• ニューラルネットワークの仕組み | Chap...
(英語版概要欄より)-------------------------------------
さらに学びたい方へ、Michael Nielsenの本
neuralnetworksanddeeplearning.com
こちらの本ではシリーズで扱われている例のコードを説明していきます:
github.com/mnielsen/neural-ne...
MNIST database:
yann.lecun.com/exdb/mnist/
Chris Olah's blog:
colah.github.io/
すべての投稿が素晴らしいですが、ニューラルネットワークとトポロジーについての投稿は特に美しいです。
distill:
distill.pub/
「でももうNielsen、Olah、Welchの内容はすべて消費しました」という方にはGoodfellow, Bengio, そしてCourvilleによる本、『Deep Learning』をおすすめいたします。
Thanks to Lisha Li (@lishali88) for her contributions at the end, and for letting me pick her brain so much about the material. Here are the articles she referenced at the end:
arxiv.org/abs/1611.03530
arxiv.org/abs/1706.05394
arxiv.org/abs/1412.0233
第3回は誤差逆伝播法についてです。
---------------------------------------------------------------------------------------------------------
(日本語版より)
前回の動画では色覚的な見やすさのために英語版での赤緑の色分けを青緑に変更している箇所がありましたが、第2回以降は青赤になっています。混乱させてしまった場合申し訳ございません。また今回の元の動画が前回の元の動画の一部を使用しているため赤緑の箇所がありますが、少なくとも、理解のために致命的な部分では混乱が生じないようになっているはずです。
日本語版X
/ 3b1bjp
元チャンネル(英語)
/ 3blue1brown
元動画(英語)
• Gradient descent, how ...
This video was supported by Amplify Partners.
For any early-stage ML startup founders, Amplify Partners would love to hear from you via 3blue1brown@amplifypartners.com
----------------------------------------
英語版翻訳元チャンネルの支援
/ 3blue1brown
アニメーションはmanimで作られています
github.com/3b1b/manim
英語版公式ソーシャルメディア
Webサイト: www.3blue1brown.com
Twitter: / 3blue1brown
Facebook: / 3blue1brown
Reddit: / 3blue1brown
----------------------------------------
Music by Vincent Rubinetti
Download the music on Bandcamp:
vincerubinetti.bandcamp.com/a...
Stream the music on Spotify:
open.spotify.com/album/1dVyjw...

Пікірлер: 52
@user-tm3yx6hy6s
@user-tm3yx6hy6s 9 ай бұрын
3:43「こら!この出力は殆どのニューロンが0で!このニューロンだけ1になるようなアクティベーションになってないとダメで!」まではそこそこ怒ってるのに、「君の出した答えは全くのゴミです。」で急に冷静になって耐え切れなかった。
@Cab_Kavun
@Cab_Kavun 9 ай бұрын
確かにwwww
@Official-jf3ey
@Official-jf3ey 6 ай бұрын
これまじ笑った
@Gattinolinks641
@Gattinolinks641 5 ай бұрын
同じく電車の中で吹き出してしまいましたw
@user-nr9ks6pj2x
@user-nr9ks6pj2x 2 ай бұрын
うちの教授とおんなじようなキレ方
@mtaka84219
@mtaka84219 9 ай бұрын
なんなのこれ、死ぬほど面白い。これが無料でいいの?日本語化してくれた方々にも感謝しかない。バックプロパゲーションくるー!
@user-jt1sm3on7k
@user-jt1sm3on7k 9 ай бұрын
とても興味深い内容です 次の動画も楽しみにしてます!
@nagrytalkie
@nagrytalkie 6 ай бұрын
大学の講義でつまずいた時に見つけてとても分かりやすかったです 次も楽しみにしています
@carbo1223
@carbo1223 9 ай бұрын
突然ゴミ扱いされるネットワーク君かわいそう(かわいい)
@user-gn7ni4st4r
@user-gn7ni4st4r 9 ай бұрын
かわいそうはかわいいをネットワークにも見出せるのか…
@a___run
@a___run 7 ай бұрын
クールジャパン
@user-gz8wc8sq7g
@user-gz8wc8sq7g 9 ай бұрын
これを見て、将棋のAI(ボナンザ、だったかな?)開発者が、「コンピューターに何を教えたかはわかるが、何を考えているのかはわからない」って言葉の意味が分かった気がします。
@poormanch
@poormanch 9 ай бұрын
動画最後のおまけが面白過ぎる… へぇ。
@user-vs3qb3eb9o
@user-vs3qb3eb9o 9 ай бұрын
良い動画
@n4tua763
@n4tua763 9 ай бұрын
自分が習った順番とは少し違うので違和感がありますが、初学者にわかりやすい順番で解説されてらっしゃるのだと思います。 内容はとてもわかりやすいです!コスト関数がゴミですっていうのが面白いし直感的!
@LifshitzLandau
@LifshitzLandau 9 ай бұрын
この情報が無料で得られる事に驚いた。
@mushimaru1959
@mushimaru1959 8 ай бұрын
この動画を見みたうえで他の動画を見ると理解度がおそろしく上がります。初学者にとても良いです。日本のAIレベルの底上げにつながると思います。ありがとうございます。一点教えてください。動画の中で説明している誤差伝搬法はどの動画で説明されているのでしょうか?
@user-zl6jl4cu1k
@user-zl6jl4cu1k 6 ай бұрын
先ほど動画が上がりましたよ
@sou80500
@sou80500 9 ай бұрын
thank you
@npsum-tm8ly
@npsum-tm8ly 7 ай бұрын
深層学習は天下り的にできるから理解しやすいんだよなあ 正直2年前の自分はガウス過程とか避けてた
@npsum-tm8ly
@npsum-tm8ly 7 ай бұрын
LSTMも出てくるのか もしかしたらTransformerもあり得るかも???
@user-fc3gl8ou8n
@user-fc3gl8ou8n 9 ай бұрын
ウォーーーー!!!勾配ベクトル!!講義でやったヤツだ!!
@user-zf5bh9ev2l
@user-zf5bh9ev2l 3 ай бұрын
この辺を理解し切れないと 想像の映像化はできないんだろうな
@256yayo
@256yayo 9 ай бұрын
nice.
@ano5041
@ano5041 9 ай бұрын
ランダムな画像を数字と認識してしまう問題、出力層のノードを一つ増やして、それに「無効」という意味を持たせれば解決できるのかな?
@ano5041
@ano5041 9 ай бұрын
でも無効な画像のパターンなんていくらでもあるし、正しく学習させるのが難しそう
@goc-2611
@goc-2611 Ай бұрын
@@ano5041ノイズを作って突っ込んで判定漏れを再学習?
@ato1pon
@ato1pon 7 ай бұрын
こういうグラフというか…  突き詰めると脳細胞に似てるな〜って
@ggl1230
@ggl1230 9 ай бұрын
動画見て思ったが画像認識AI君が90°回転させた画像だと全然認識がダメになる理由ってインプットする行列の順番が変わってしまうからなのかな? (人間の目だと問題無いけど)
@ano5041
@ano5041 9 ай бұрын
その通り 回転させた画像を正しく認識したい場合は、回転した画像を学習させる必要がある 機械学習は学ばせたこと以上のことは出来ない
@PGW90RU14
@PGW90RU14 7 ай бұрын
残念ながら、人間の目も回転させた画像を、元の画像と同じように認識はしません。 それを実感する一番簡単な方法は、180度回転させた顔を、写生することです。殆どの人は、さかさまの顔を正確に認識できません。
@npsum-tm8ly
@npsum-tm8ly 4 ай бұрын
一応動画だと全結合層だけで使ってるからそれであってるかな.ただ畳み込みニューラルネットワークってやつに回転対称性(と平行移動での不変性はもとから畳み込みで得られてるし,あと鏡映に対しても不変にしてた気がする)とかを与えることができるようにしてる研究とかあったと思うよ(帰納バイアスの問題)
@lonakoyahepl389
@lonakoyahepl389 9 ай бұрын
3:43 ひどい…
@dedensya1
@dedensya1 9 ай бұрын
局所平衡の解も最適解も大して変わらなかったって話ね。 結局学習データの質なんですよ。難しい事は何もやっていないのが機械学習の真髄。
@ano5041
@ano5041 9 ай бұрын
勾配降下法…実質Adam一択のやつか
@npsum-tm8ly
@npsum-tm8ly 4 ай бұрын
adaptive系統便利だよね~ Adabeliefとかいいゾ~
@PGW90RU14
@PGW90RU14 7 ай бұрын
とても勉強になりました。 ところで、ランダムな画像を与えた時に、何らかの回答を出力するという点についてですが、それは数字を表していない入力に対して「それは数字ではない」という出力を期待する学習をしていないからではないか、という気がします。たとえば真っ白な画像を与えた場合に0~9のいずれに対しても0という出力を正解として期待し、0から9までを重ねて書いた画像に対しては0~9に0.1を出力することを正解として期待するような学習を行っていないから、ではないかという気がします。 端的に書くと、教えていないことに対して、正解を出力することは有りえない、ということで、それは人間であっても理論的にそうなる話だと思うのです。どう思われますか?
@user-zl6jl4cu1k
@user-zl6jl4cu1k 6 ай бұрын
横から失礼します ここでおっしゃる「教える」というのは,教師データ(ラベル付けされた学習データ)を与えるということですよね?この動画で扱っているようなニューラルネットワークは正解をラベル付けした教師データが必要なので,人間は「教えられたことしかできないのでは」という問いですよね. 人間はラベル付けされた学習データ,つまり,過去の経験を膨大に持っているので,明示的に教えられていなくても,自らモデルを作成して学習できると思います.つまり,「教えられてないけどやれる」状態ですね.さらにいえば,人間は「正解を疑う」ことができるので,自ら説明力の高い学習データやモデルを作ることで,教えられていないことに対して正解を返すことはできると思います. もちろんそういう人間ばかりではないので,中には「教えられないとやれない」人間もいると思います.これは,自らモデルを作成する能力がないのではなく,周りが「教えて」くれるので,その必要を感じていないからだと個人的には思います.
@PGW90RU14
@PGW90RU14 6 ай бұрын
@@user-zl6jl4cu1k それを問うているのではないのですが、それは別として、人間は環境からの刺激を入力として与えられr、それに対して行動し、その結果を正解として学習しており、その範囲の中で行動していると私は思います。
@Cat-pv1zz
@Cat-pv1zz 9 ай бұрын
自信がないと回答する意味がないから、現状のChatGPTも間違った答えを自信満々に述べるんだなぁ
@aaa_1214
@aaa_1214 9 ай бұрын
なるほど、現状の深層学習の仕組みは言語学でよく言う所の「記号のメリーゴーランド」に過ぎないわけだ。 記号を別の記号によって判別しているに過ぎないため、現状のAIは、言ってしまえば我々の考える(SF的)AIのような何かに過ぎないのでしょう。 現代の言語学では人間特有の認知能力として「アブダクション推論」が言語習得に大きく寄与していると考えられている。特に、与えられた記号Aが別の記号Bを象徴することに対し、記号Bが記号Aを象徴するという推測が立てられることである。(論理学的には必ずしも真ではない) このある種、非-論理的な人間的思考を如何に機械化するかが今後の課題であるような気がする。
@Milepoch
@Milepoch 4 ай бұрын
AIはきっと人よりずっと寿命が長い、人よりずっと長く学習できる 人の存在意義が消失する瞬間に立ち会った感が怖い もし我々が神に作られたモノだとしたら我々はAIとして作られた 人類の存在理由が関数で記述できてしまう ・・・ 数学の無限も感じる、莫大な計算量が可能になって数学はさらに先に進む そろばんや電卓ではどんな天才でも思いつかなかったろう世界 こんな動画を誰もが見られる事自体がもうね、すごい時代だよね
@user-go8kg3hh1j
@user-go8kg3hh1j 9 ай бұрын
ディープラーニングは、間違い学習の修正が難しいのです。 修正用のプログラムを作ったり、再学習処理を作ったり面倒でした。
@Agjpnjtdpap
@Agjpnjtdpap 9 ай бұрын
なんか漸化式みたい
@user-gd6en4ls4v
@user-gd6en4ls4v 27 күн бұрын
〜12:55
@Agjpnjtdpap
@Agjpnjtdpap 9 ай бұрын
コスト関数は分散みたいなものってこと?
@ano5041
@ano5041 9 ай бұрын
その場合もある。 コスト関数には色んな種類があって、その一つにMean Squared Errorという、まさに分散とほぼ同じものがある(平均が正解のデータに置き換わっているだけ)。
@warmsky1
@warmsky1 2 ай бұрын
なるほど。 貴方は機械が人類の知能が持つすべての特徴をシミュレーションすることができるとお考えになりますか。
@miri0689
@miri0689 8 ай бұрын
最初の学習の後のチューニングがくっそだるい…
なぜ正規分布どうしの畳み込みは正規分布なのか
12:19
3Blue1BrownJapan
Рет қаралды 29 М.
Please be kind🙏
00:34
ISSEI / いっせい
Рет қаралды 85 МЛН
бесит старшая сестра!? #роблокс #анимация #мем
00:58
КРУТОЙ ПАПА на
Рет қаралды 1,4 МЛН
Smart Sigma Kid #funny #sigma #comedy
00:19
CRAZY GREAPA
Рет қаралды 14 МЛН
OMG🤪 #tiktok #shorts #potapova_blog
00:50
Potapova_blog
Рет қаралды 11 МЛН
GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
26:36
3Blue1BrownJapan
Рет қаралды 110 М.
ニュートン法と美しきフラクタルの世界
24:18
3Blue1BrownJapan
Рет қаралды 281 М.
激ムズ図形問題の超エレガントな解法|反転幾何学
8:13
Transformer Neural Networks Derived from Scratch
18:08
Algorithmic Simplicity
Рет қаралды 124 М.
ResNet (actually) explained in under 10 minutes
9:47
rupert ai
Рет қаралды 80 М.
Please be kind🙏
00:34
ISSEI / いっせい
Рет қаралды 85 МЛН