【機器學習2021】類神經網路訓練不起來怎麼辦 (五): 批次標準化 (Batch Normalization) 簡介

  Рет қаралды 93,691

Hung-yi Lee

Hung-yi Lee

Күн бұрын

Пікірлер: 44
@yunzhang2553
@yunzhang2553 3 жыл бұрын
我的全网第一男神!表白宏毅老师!
@siriuszhang8565
@siriuszhang8565 3 жыл бұрын
老师讲的真好,我的深度学习启蒙老师,表白表白!!!!!!
@客家饒舌執牛耳
@客家饒舌執牛耳 3 жыл бұрын
全台最帥教授,只服李教授
@Freeman99sd
@Freeman99sd Жыл бұрын
谢谢李老师!最生动,最易懂的AI课程。
@left_right_men
@left_right_men 3 жыл бұрын
华人里最牛逼的深度学习老师
@jbai4001
@jbai4001 4 ай бұрын
只是讲课讲的最牛逼
@baobao-h3k
@baobao-h3k 22 күн бұрын
研0🥲加油中
@王柏仁-m7d
@王柏仁-m7d 21 күн бұрын
其實x1 tilde 跟 x2 tilde 在同維度(乘以同一個w),所以不是獨立分開處理的,老師是不是有稍微講錯?
@kaokuntai
@kaokuntai Жыл бұрын
13:14 實際上應該是如何運算? 產生了滿多困惑, 想詳細了解, 請解惑?
@junjack2836
@junjack2836 3 жыл бұрын
表白老师,讲的太好了,什么时候上字幕
@emptyjns
@emptyjns Жыл бұрын
The diagram on page 7 is better described as a computation graph than a (neural) network.
@三-o2k
@三-o2k 3 жыл бұрын
feature normaliaztion 是可以想成統計上的Z轉換嗎?
@zhuoruizhang2236
@zhuoruizhang2236 3 жыл бұрын
请问老师助教讲作业的录影有机会放出来嘛?认真做了作业希望有点反馈
@jiashupan9181
@jiashupan9181 3 жыл бұрын
我也是,很多疑惑没有人解答😭
@ChenyuZheng-y5m
@ChenyuZheng-y5m 3 жыл бұрын
好像李宏毅老师主页上有
@zhuoruizhang2236
@zhuoruizhang2236 3 жыл бұрын
@@ChenyuZheng-y5m 嗯嗯 我看到助教讲评作业的ppt了 不过我是想问有没有讲优秀作业的office hour 😂讲讲怎么过strong baseline
@水坎火离
@水坎火离 7 ай бұрын
我一直看不懂 等高图,请问怎么看,哪里有教程?谢谢🙏
@juanguang5633
@juanguang5633 2 жыл бұрын
15:16 请问这里z1,z2,z3为什么会改变,不是training sample吗?
@MrJioYoung
@MrJioYoung 2 жыл бұрын
z不是原始的sample
@riejelly8398
@riejelly8398 8 ай бұрын
z是中间层结果,学习阶段参数改变z就改变
@暗影潜行
@暗影潜行 3 жыл бұрын
老师,训练结束以后,测试数据要怎样输入到网络,需要normalization吗,但是每个batch的u与sigma不一样啊 是测试数据的u和sigma也是一直在做moving average吗
@陈建铭-c3j
@陈建铭-c3j Жыл бұрын
感觉也只能这样
@莊芯瑜-o1w
@莊芯瑜-o1w 3 жыл бұрын
想請問在第七頁的ppt上,老師把所有z的vector一起算平均和標準差,之後每個z的element在標準化,我想請問為什麼不能再跟normilize x的地方一樣,都個別標準化呢?
@文芳-c4j
@文芳-c4j 3 жыл бұрын
x ̃1 代表着一个data
@文芳-c4j
@文芳-c4j 3 жыл бұрын
1是上标不是特征的一维,而是一个特征向量
@hsin3872
@hsin3872 2 жыл бұрын
我也有一樣的問題 他在處理x標準化 跟 處理z標準化的方式好像是不一樣的
@deadfire7973
@deadfire7973 Жыл бұрын
@@hsin3872 处理方式应该是一样的吧,都需要有一个batch,求出对应是向量的μ和Σ
@user-qz5ys6us6e
@user-qz5ys6us6e Жыл бұрын
@@deadfire7973好像不太一样,对x的处理没有考虑batch的因素,是统一了x的不同维度的范围,对z的话从课件里看已经没有这个功能了,z不同维度的范围并没有统一,更像是统一了不同batch下z的范围
@zhijwu4624
@zhijwu4624 Жыл бұрын
10:00 請問x1、x2、x3算是一個batch嗎?
@riejelly8398
@riejelly8398 8 ай бұрын
x1x2x3构成了一个数据条目,若干数据条目里的构成一个batch,对一个batch里所有的「x1x2x3」normalization就是BatchNorm
@cunningshark
@cunningshark 3 жыл бұрын
请问input输入时候的标准化和训练时每一层的标准化是一回事儿吗?似乎第4页的是针对某一个特征值的标准化,但是到了第5页,就变成了对训练资料不同特征的标准化,这里有些困惑。
@cunningshark
@cunningshark 3 жыл бұрын
懂了,原来是要一次输入一个batch的数据,然后对每一个特征做标准化。听到后面讲明白了
@haoyuandong
@haoyuandong Жыл бұрын
@@cunningshark 我也纠结了好久是针对输入数据的行维度还是feature维度做normalization
@LiuYifei-jb3mh
@LiuYifei-jb3mh 7 ай бұрын
讲的真好
@li-pingho1441
@li-pingho1441 2 жыл бұрын
老師你是我的神
@myworldAI
@myworldAI 2 жыл бұрын
哈哈,更高一级应該是佛
@kleemc
@kleemc 3 жыл бұрын
讲得非常好👍
@WinnieBear-x3n
@WinnieBear-x3n 3 жыл бұрын
好像沒看到Batch Normalization 的slide@@? 是我眼花沒找到嗎>
@codedoc955
@codedoc955 3 жыл бұрын
description 里就有
@音旋-k6g
@音旋-k6g 3 жыл бұрын
viagra -> serendipitous
@flv1737
@flv1737 Ай бұрын
研一
@yulongtian7783
@yulongtian7783 3 жыл бұрын
点赞
@PooGoo-p5u
@PooGoo-p5u 4 ай бұрын
讲的真好
1% vs 100% #beatbox #tiktok
01:10
BeatboxJCOP
Рет қаралды 67 МЛН
BAYGUYSTAN | 1 СЕРИЯ | bayGUYS
36:55
bayGUYS
Рет қаралды 1,9 МЛН
Каха и дочка
00:28
К-Media
Рет қаралды 3,4 МЛН
Quando A Diferença De Altura É Muito Grande 😲😂
00:12
Mari Maria
Рет қаралды 45 МЛН
2024 機器學習 10 連續潛變數 (PCA)
2:29:30
Chih-Yuan Yang (楊智淵)
Рет қаралды 140
【機器學習2021】Transformer (下)
1:00:34
Hung-yi Lee
Рет қаралды 165 М.
DPO V.S. RLHF 模型微调
44:14
Alice in AI-land
Рет қаралды 3 М.
【機器學習2021】自注意力機制 (Self-attention) (下)
45:58
【機器學習2021】機器學習任務攻略
51:23
Hung-yi Lee
Рет қаралды 186 М.
1% vs 100% #beatbox #tiktok
01:10
BeatboxJCOP
Рет қаралды 67 МЛН