KZ
bin
Негізгі бет
Қазірдің өзінде танымал
Тікелей эфир
Ұнаған бейнелер
Қайтадан қараңыз
Жазылымдар
Кіру
Тіркелу
Ең жақсы KZbin
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
AlexNet论文逐段精读
55:21
AI時代,你跟上了嗎?|李宏毅|人文講堂|完整版 20231209
24:01
Ice Cream or Surprise Trip Around the World?
00:31
كم بصير عمركم عام ٢٠٢٥😍 #shorts #hasanandnour
00:27
台上一分钟,台下十年功(内容来源网络@原声社·非遗男团)#非遗文化 #国粹 #重庆 #国风 #杂技 #shorts
00:36
ЭКСКЛЮЗИВ: МАЛ екенмін! Некесіз туылған ҚЫЗЫН мойындай ма? 15 мың теңгеге ренжіді!
2:44:02
ResNet论文逐段精读
Рет қаралды 32,551
Facebook
Twitter
Жүктеу
1
Жазылу 83 М.
跟李沐学AI
Күн бұрын
Пікірлер: 26
@haofeng7922
3 жыл бұрын
最近刚接触cv,老师让读一读ResNet,李沐老师就发了这样一个很有帮助的视频,对我很有帮助,非常感谢。
@Lee-sr9el
8 ай бұрын
太喜欢这个博主了
@zealing8775
Жыл бұрын
Resent优点是gradient能更快回馈到前面几层,均匀分配learning resource到各层。否则前面层饿死 后面层撑死。
@sophiez7952
3 жыл бұрын
好棒,谢谢沐神老师!!!
@chrischen6
Жыл бұрын
謝謝老師講解 非常清楚 很受用
@tianwenchu1663
Жыл бұрын
感谢大佬深入浅出,太精彩了
@thankyouthankyou1172
Жыл бұрын
喜欢听老师讲课
@thankyouthankyou1172
Жыл бұрын
22:48 你说的64, 28 通道,通道 = filter?
@TheGongjie437
4 ай бұрын
谢谢沐神
@rot3315
4 ай бұрын
非常感謝
@JohnSmith-xf5od
6 ай бұрын
如果resnet 的启发是始终要保持gradient够大,那么为啥优化过程中要把learning rate 1/10呢?这不是在一个平坦区域gradient大大变小了吗?不是更走不出去了吗?
@DED_Search
2 жыл бұрын
25:30 老师说训练精度比测试精度高?这个说反了吧?纵轴是% error, thin line is training error whereas bold line is testing error.
@jizong234
Жыл бұрын
我也觉得说反了
@graceq.899
Жыл бұрын
是反了,或者想説error結果説的是精度,但是意思是對的,解釋了爲什麽testing error比training error 低
@linxiaohuang4629
Жыл бұрын
+1
@TSUNG-YULIN
2 жыл бұрын
依照論文的意思,F(x)是整個網路多餘層的輸出應該要訓練出一個很小的值,比起訓練一個identity mapping,訓練一個weights接近0的layer應該比較簡單。但有一點想不通的是,依照論文所提出的架構,在Resnet淺層的時候,便有shortcut connections的使用,這樣不會導致網路在淺層的時候每一層都只訓練出一個接近0的值,再加上原本的輸出x後,過完一個Resnet的block後出來的output還是很接近x(輸入)嗎,如果依照resnet的精神,不是應該只在深層網路的後面幾個layer加入shortcut connections才好嗎?希望能在這邊解惑,謝謝各位。
@andreawong2935
Жыл бұрын
老师在最后讲f(g(x))的那个例子或许可以回顾一下?
@tildarusso
Жыл бұрын
在此情况下,网络浪费了算力(后面残差计算都白费了),但情况并没有变糟。此情况能一直传播到网络末端输出。再加上网络越深越好的基本概念(特征浓缩),残差还是很必要-你保留了使用同一个网络结构处理不同数据分布的通用性。
@hanyanglee9018
Жыл бұрын
堆叠起来的层的可训练性应该是一个要认真研究的事情,不记得见过这个方向的任何说法。
@jeffw1082
2 жыл бұрын
is any paper talk about different optimizer? In my work I found using Adam I could train the network(mostly transformer and lstm), but SGD explode after few steps.
@rubyjiang8836
Жыл бұрын
我的神!
@chaozhang4751
3 жыл бұрын
thanks for sharing!!!
@linquanma6145
3 жыл бұрын
沐神用爱发电,yyds
@turinglifechu9419
Ай бұрын
3.1, 3.2, 3.3好像没有。
@alphaprofold5707
3 жыл бұрын
高屋建瓴!
55:21
AlexNet论文逐段精读
跟李沐学AI
Рет қаралды 22 М.
24:01
AI時代,你跟上了嗎?|李宏毅|人文講堂|完整版 20231209
大愛人文講堂
Рет қаралды 447 М.
00:31
Ice Cream or Surprise Trip Around the World?
Hungry FAM
Рет қаралды 22 МЛН
00:27
كم بصير عمركم عام ٢٠٢٥😍 #shorts #hasanandnour
hasan and nour shorts
Рет қаралды 10 МЛН
00:36
台上一分钟,台下十年功(内容来源网络@原声社·非遗男团)#非遗文化 #国粹 #重庆 #国风 #杂技 #shorts
梨园飞歌
Рет қаралды 13 МЛН
2:44:02
ЭКСКЛЮЗИВ: МАЛ екенмін! Некесіз туылған ҚЫЗЫН мойындай ма? 15 мың теңгеге ренжіді!
НТК Show
Рет қаралды 583 М.
1:11:31
ViT论文逐段精读【论文精读】
跟李沐学AI
Рет қаралды 52 М.
11:50
撑起计算机视觉半边天的ResNet
跟李沐学AI
Рет қаралды 18 М.
9:47
ResNet (actually) explained in under 10 minutes
rupert ai
Рет қаралды 111 М.
49:32
Transformer
Hung-yi Lee
Рет қаралды 206 М.
46:17
GAN论文逐段精读【论文精读】
跟李沐学AI
Рет қаралды 21 М.
1:00:34
【機器學習2021】Transformer (下)
Hung-yi Lee
Рет қаралды 162 М.
1:27:05
Transformer论文逐段精读
跟李沐学AI
Рет қаралды 423 М.
17:00
Residual Networks and Skip Connections (DL 15)
Professor Bryce
Рет қаралды 48 М.
7:08
C4W2L03 Resnets
DeepLearningAI
Рет қаралды 190 М.
58:35
【機器學習2021】預測本頻道觀看人數 (下) - 深度學習基本概念簡介
Hung-yi Lee
Рет қаралды 228 М.
00:31
Ice Cream or Surprise Trip Around the World?
Hungry FAM
Рет қаралды 22 МЛН