ResNet论文逐段精读

  Рет қаралды 32,551

跟李沐学AI

跟李沐学AI

Күн бұрын

Пікірлер: 26
@haofeng7922
@haofeng7922 3 жыл бұрын
最近刚接触cv,老师让读一读ResNet,李沐老师就发了这样一个很有帮助的视频,对我很有帮助,非常感谢。
@Lee-sr9el
@Lee-sr9el 8 ай бұрын
太喜欢这个博主了
@zealing8775
@zealing8775 Жыл бұрын
Resent优点是gradient能更快回馈到前面几层,均匀分配learning resource到各层。否则前面层饿死 后面层撑死。
@sophiez7952
@sophiez7952 3 жыл бұрын
好棒,谢谢沐神老师!!!
@chrischen6
@chrischen6 Жыл бұрын
謝謝老師講解 非常清楚 很受用
@tianwenchu1663
@tianwenchu1663 Жыл бұрын
感谢大佬深入浅出,太精彩了
@thankyouthankyou1172
@thankyouthankyou1172 Жыл бұрын
喜欢听老师讲课
@thankyouthankyou1172
@thankyouthankyou1172 Жыл бұрын
22:48 你说的64, 28 通道,通道 = filter?
@TheGongjie437
@TheGongjie437 4 ай бұрын
谢谢沐神
@rot3315
@rot3315 4 ай бұрын
非常感謝
@JohnSmith-xf5od
@JohnSmith-xf5od 6 ай бұрын
如果resnet 的启发是始终要保持gradient够大,那么为啥优化过程中要把learning rate 1/10呢?这不是在一个平坦区域gradient大大变小了吗?不是更走不出去了吗?
@DED_Search
@DED_Search 2 жыл бұрын
25:30 老师说训练精度比测试精度高?这个说反了吧?纵轴是% error, thin line is training error whereas bold line is testing error.
@jizong234
@jizong234 Жыл бұрын
我也觉得说反了
@graceq.899
@graceq.899 Жыл бұрын
是反了,或者想説error結果説的是精度,但是意思是對的,解釋了爲什麽testing error比training error 低
@linxiaohuang4629
@linxiaohuang4629 Жыл бұрын
+1
@TSUNG-YULIN
@TSUNG-YULIN 2 жыл бұрын
依照論文的意思,F(x)是整個網路多餘層的輸出應該要訓練出一個很小的值,比起訓練一個identity mapping,訓練一個weights接近0的layer應該比較簡單。但有一點想不通的是,依照論文所提出的架構,在Resnet淺層的時候,便有shortcut connections的使用,這樣不會導致網路在淺層的時候每一層都只訓練出一個接近0的值,再加上原本的輸出x後,過完一個Resnet的block後出來的output還是很接近x(輸入)嗎,如果依照resnet的精神,不是應該只在深層網路的後面幾個layer加入shortcut connections才好嗎?希望能在這邊解惑,謝謝各位。
@andreawong2935
@andreawong2935 Жыл бұрын
老师在最后讲f(g(x))的那个例子或许可以回顾一下?
@tildarusso
@tildarusso Жыл бұрын
在此情况下,网络浪费了算力(后面残差计算都白费了),但情况并没有变糟。此情况能一直传播到网络末端输出。再加上网络越深越好的基本概念(特征浓缩),残差还是很必要-你保留了使用同一个网络结构处理不同数据分布的通用性。
@hanyanglee9018
@hanyanglee9018 Жыл бұрын
堆叠起来的层的可训练性应该是一个要认真研究的事情,不记得见过这个方向的任何说法。
@jeffw1082
@jeffw1082 2 жыл бұрын
is any paper talk about different optimizer? In my work I found using Adam I could train the network(mostly transformer and lstm), but SGD explode after few steps.
@rubyjiang8836
@rubyjiang8836 Жыл бұрын
我的神!
@chaozhang4751
@chaozhang4751 3 жыл бұрын
thanks for sharing!!!
@linquanma6145
@linquanma6145 3 жыл бұрын
沐神用爱发电,yyds
@turinglifechu9419
@turinglifechu9419 Ай бұрын
3.1, 3.2, 3.3好像没有。
@alphaprofold5707
@alphaprofold5707 3 жыл бұрын
高屋建瓴!
AlexNet论文逐段精读
55:21
跟李沐学AI
Рет қаралды 22 М.
AI時代,你跟上了嗎?|李宏毅|人文講堂|完整版 20231209
24:01
Ice Cream or Surprise Trip Around the World?
00:31
Hungry FAM
Рет қаралды 22 МЛН
كم بصير عمركم عام ٢٠٢٥😍 #shorts #hasanandnour
00:27
hasan and nour shorts
Рет қаралды 10 МЛН
ViT论文逐段精读【论文精读】
1:11:31
跟李沐学AI
Рет қаралды 52 М.
撑起计算机视觉半边天的ResNet
11:50
跟李沐学AI
Рет қаралды 18 М.
ResNet (actually) explained in under 10 minutes
9:47
rupert ai
Рет қаралды 111 М.
Transformer
49:32
Hung-yi Lee
Рет қаралды 206 М.
GAN论文逐段精读【论文精读】
46:17
跟李沐学AI
Рет қаралды 21 М.
【機器學習2021】Transformer (下)
1:00:34
Hung-yi Lee
Рет қаралды 162 М.
Transformer论文逐段精读
1:27:05
跟李沐学AI
Рет қаралды 423 М.
Residual Networks and Skip Connections (DL 15)
17:00
Professor Bryce
Рет қаралды 48 М.
C4W2L03 Resnets
7:08
DeepLearningAI
Рет қаралды 190 М.
Ice Cream or Surprise Trip Around the World?
00:31
Hungry FAM
Рет қаралды 22 МЛН